微软被曝搪塞员工绩效,只强化个人表现;文心一言 App 登苹果免费应用排行榜首位;商汤科技被爆裁员?官方回应|Q资讯

整理 | 褚杏娟
微软被曝:以公司文化为由搪塞员工绩效评估,只强化个人表现;商汤科技被爆裁员?回应称根据市场环境变化优化人才结构;去哪儿补贴员工生育每孩最高 5 万元;小红书回应“旅游搭子”被指涉黄传言;百度、商汤等大模型产品获批,全面开放上线;华为 2023 年上半年研发投入 826 亿元,十年累计研发费用超 9773 亿元;CEC-IDE 系统宣传“自主研发”遭多方质疑,官方致歉:责令整改;科技五巨头入门工程师平均年薪报告:谷歌 18.4 万美元、苹果 14.2 万美元;微软宣布明年 8 月 31 日停止支持 Mac 版 Visual Studio IDE……  
科技公司
微软被曝:以公司文化为由搪塞员工绩效评估,只强化个人表现
8 月 30 日消息,微软 CEO Satya Nadella 的一封电子邮件告知员工:微软今年不会为全职员工加薪,并且正在减少奖金和股票奖励的预算。不过在实际推行层面仍存在很多不透明的地方,员工询问公司如果要削减奖励预算,如何细分到员工个人、如何影响其绩效评估,而根据曝光的内部备忘录,微软要求中层管理人员以公司文化的名义,回避、搪塞这些问题。
该备忘录中表示:“考虑到 Nadella 电子邮件中分享的决定,员工很自然地会问有关预算的问题。但重要的是,和下属进行讨论的时候,要强调其员工在上一财年的表现,并表示表现直接和奖励挂钩”。该备忘录核心观点就是淡化微软公司要削减员工奖励预算,认为这会削弱团队内部的信任和信心,而要求中层领导强调奖励和个人表现挂钩,无关微软提供多少预算,而是要激励员工为公司作出贡献。
商汤科技被爆裁员?回应称根据市场环境变化优化人才结构
日前,商汤科技传出裁员。据称有员工爆料,商汤科技本次裁员赔偿 N+2,但限时 24 小时内必须签字。
对于网传裁员消息,商汤科技回复称,作为一家快速发展的科创企业,商汤科技集中资源,聚焦于包含通用人工智能在内的未来战略性增长领域。公司根据市场环境变化和自身发展状况进行相应的战略调整,并对组织和人才结构进行优化,以更好地满足业务发展需要。目前,公司整体发展良好,对优秀的社会人才和高校毕业生会持续引进。商汤科技对集团的长期价值及前景充满信心。
去哪儿补贴员工生育每孩最高 5 万元
8 月 31 日消息,从去哪儿获悉,OTA 平台去哪儿宣布,即日起为员工设立生育补贴福利——“驼二代成长礼金”。所有司龄满 3 年及以上的正式员工,在 2023 年 9 月 1 日及之后新生育驼二代,每个孩子在 1 周岁至 5 周岁的生日时,均可获得一份 1 万元人民币的成长礼金。
除了生育补贴外,去哪儿此前还向员工发放旅游基金。去哪儿相关负责人表示,若拿满所有福利金,最高可达 7.7 万元(成长礼金 5 万元 + 旅游基金 2.7 万元)。
小红书回应“旅游搭子”被指涉黄传言
近日,有网友在小红书发现,“旅游搭子费用全包”正在成为一道暗语。在此类帖子醒目标题下,通常还会注明“仅限女生,各取所需。” 有网友发帖表示,自己在小红书找旅游搭子过程中,被对方问是不是找“绿色搭子”。在被问及平台上是否真有非绿色交易时,对方称:“费用全包限女的基本上都是,绿色的会说清”。
对此,小红书回应称,我们关注到有自媒体发布标题为《小红书“旅游搭子费用全包”涉黄了》文章,平台高度重视,目前已针对站内“旅游搭子”相关笔记开展全量回查,尚未定位到文章内所提及用户反映的问题,一旦查实存在违规内容,将依法依规对违规用户进行严肃处理。
百度、商汤等大模型产品获批,全面开放上线
8 月 31 日,国内 11 家通过《生成式人工智能服务管理暂行办法》备案的 AI 大模型产品将陆续上线,面向全社会开放。
8 个企业 / 机构的大模型位列第一批名单,北京 5 家,上海 3 家。其中,北京 5 家大模型产品分别是百度的 “文心一言”、抖音的 “云雀”、百川智能的 “百川大模型”、清华系 AI 公司智谱华章旗下的 “智谱清言” 以及中科院的 “紫东太初”;上海 3 家大模型产品包括商汤的 “商量 SenseChat”、MiniMax 的 “ABAB 大模型”、上海人工智能实验室的 “书生通用大模型”。
广东省 2 家和其他省市 1 家也将陆续开放。据悉,广东地区获批公司分别为华为、腾讯,科大讯飞系其他地区获批产品。另外据报道,阿里的 “通义千问” 已完成备案工作,待正式上线。
据悉,文心一言 App 宣布对全社会开放后 12 小时,迅速登上 App Store 免费应用排行榜首位,成为首个登顶应用商店榜首的中文 AI 原生应用。该应用自凌晨开放下载后,一度引发排队等待。百度官方对此回应“流量超预期,正在调集新的算力,请大家减少调戏,为工作和学习目的的用户让路。”
OpenAI 推出 ChatGPT 企业版,新增隐私保护、定制和高速访问等功能
人工智能初创公司 OpenAI 宣布,推出 ChatGPT 企业版,也是迄今为止最强大的 ChatGPT 版本,目的是吸引更广泛的企业客户,并提高其最知名产品的收入。与面向个人的聊天机器人服务一样,用户在企业版上也可以输入问题并收到 ChatGPT 的书面回复。但不同之处在于,ChatGPT 企业版可提供更高级别的安全和隐私、无限高速 GPT-4 访问、访问速度是普通 GPT-4 的两倍、处理更长的输入和更长的上下文窗口、高级数据分析功能、自定义选项等。
华为 2023 年上半年研发投入 826 亿元,十年累计研发费用超 9773 亿元
8 月 31 日,华为投资控股有限公司半年报正式出炉。数据显示,华为上半年研发投入为 826.04 亿元,同比增长 4.4%,销售收入 3109 亿元人民币,同比增长 3.1%,净利润率 15.0%,去年同期的净利润率仅为 5%。而在 2022 年全年,华为的净利润率也仅为 5.5%。当时,在华为 2022 年年报发布会上,华为副董事长、轮值董事长、CFO 孟晚舟解读称,华为净利润大幅下滑有两项主要原因,一是终端营收大幅下滑,导致经营利润不佳;二是为了保证制裁下的业务连续性,华为进行了压强式研发投入。
值得一提的是,华为 2022 年年报披露,华为十年累计投入研发超 9773 亿元,2022 年研发投入 1615 亿元,占全年收入 25.1%。
CEC-IDE 系统宣传“自主研发”遭多方质疑,官方致歉:责令整改
近日消息,数字广东网络建设有限公司发布致歉声明,称因版本迭代更新中出现疏忽,近几个版本中缺失了 MIT 协议文件,产品表述中“自主研发”等用语被网友质疑,公司已责令相关工作团队进行认真整改,将进一步完善产品研发管理机制。
此前,微博诸多博主对该系统表示质疑。据了解,CEC-IDE 由数字广东公司联合麒麟软件打造,支持麒麟、统信、Windows、Mac OS 等多环境,提供代码编写、智能辅助、编译调试、版本控制等功能。除了 1600 余种技术插件服务外,还提供一系列的数字政府公共服务能力插件。
向 LinkedIn 发起挑战,推出新的职位发布功能
近日, 公司(前身为 Twitter)新的 @Hiring 账户宣布正式推出 Hiring 功能的测试版。已在 上通过验证的感兴趣的组织可以申请加入测试版。虽然该功能还处于测试阶段,但平台上的一些账户似乎已经开始发布招聘信息。公告中的 Vercel 已经在其个人主页上发布了招聘信息。
这项功能为企业提供了另一种方式,让它们可以在一堆营销帖子之外发布招聘启事。这也是 向成为马斯克雄心勃勃的万能应用迈出的又一步。 希望与 LinkedIn 抗衡,成为搜索工作的地方。
科技五巨头入门工程师平均年薪报告:谷歌 18.4 万美元、苹果 14.2 万美元
8 月 29 日消息,根据市场调查机构 Blind 发布的最新报告,亚马逊、谷歌和 Meta 三家公司入门级工程师支付的平均薪资,要高于苹果和微软。5 家公司的入门级工程师平均年薪情况如下:
亚马逊:15.9 万美元(当前约 115.9 万元人民币)
谷歌:18.4 万美元(当前约 134.1 万元人民币)
Meta:17.9 万美元(当前约 130.5 万元人民币)
苹果:14.2 万美元(当前约 103.5 万元人民币)
微软:14.1 万美元(当前约 102.8 万元人民币)
报告中还统计了上述 5 家公司的专业工程师、高级工程师、工程主管等多个级别,从年薪来看,也呈现和入门级工程师相同的情况。
IT 业界
微软宣布明年 8 月 31 日停止支持 Mac 版 Visual Studio IDE
当地时间 8 月 30 日,微软开发者博客发布更新,宣布适用于 Mac 平台的 Visual Studio 集成开发环境(IDE)启动“退休”进程。Visual Studio for Mac 17.6 将继续支持 12 个月,持续到 2024 年 8 月 31 日。微软表示后续不再为 Visual Studio for Mac 开发新的功能,不会添加新的框架、runtime 或语言支持,在未来 1 年内将重点针对安全问题,发布服务和安全更新。
Google 宣布新一代 AI 芯片 TPU v5e
Google 宣布了其自己设计自己使用的新一代 AI 芯片 TPU v5e,它的 TPU 芯片只通过 Cloud TPU 云服务提供给客户。
Google 在 2016 年推出了第一代 TPU(tensor processing unit),2021 年发布 TPU v4。相比上一代 TPU v4,TPU v5e 每一美元的训练性能提高 2 倍,每一美元的推理性能提高 2.5 倍,而成本不到 TPU v4 的一半,使得更多组织能够训练和部署更大更复杂的 AI 模型。TPU v5e 最多允许 256 个芯片互连,总带宽超过 400 Tb/s,支持八种不同的虚拟机配置。根据速度基准测试,在 TPU v5e 上训练和运行 AI 模型时速度提高了 5 倍。