速递丨字节大模型训练遭AI Lab实习生投毒并嫁祸北大同事,损失或超过千万美元

图片

图片来源:字节跳动

2024年10月18日,有消息称字节跳动的大模型训练被一名实习生入侵,并注入了破坏代码。这导致训练成果不可靠,可能需要重新训练。此次入侵或影响了8000多张卡,造成的损失可能超过千万美元。

一开始,这名“投毒”的实习生被指认为北京大学的S某某。后S某某开始在社交媒体上辟谣,声称自己是被造谣的,相关内容未证实的情况下被发表,田某某或才是“真凶”。

图片

随后,GitHub上公开了田某某的录音,成为实锤证据。据凤凰网科技的报道,相关知情人士在Gitbub上的表述,“你(指田某)在长达2个月的时间里对集群代码进行恶意攻击,对公司近30位各级员工造成巨大伤害,让你的同事近一个季度的工作白费。所有的记录和审查都证明这是不容狡辩的事实!”

在录音中,疑似田某承认自己通过更新使代码具有攻击性。他明确向问询人员表示,这样做是因为某些原因让他们感到非常不满。

图片

传闻称此次损失可能超过千万美元,但实际损失并没有传闻中那么严重。

据公开信息报道,事件的起因是高校博士生田某今年6月在字节跳动AI Lab实习期间,因对团队资源分配不满,使用攻击代码破坏了团队的模型训练任务。田某于2021年9月起在该单位实习,所在团队刚在今年4月与北大王立威团队提出了VAR研究。

字节跳动内部调查确认了是田某某所为,该实习生已经被辞退。字节跳动还将此事通报给了阳光诚信联盟、企业反舞弊联盟以及实习生所在的学校。被辞退后,田某某试图通过“辟谣”和甩锅来否认自己的行为,于是出现了S某某背锅的前情。

技术安全专家指出,此事件暴露了字节跳动在技术训练方面的安全管理问题,公司没有做好权限隔离和共用代码的审计。另有报道指出,字节跳动的AI Lab实习生权限和正职员工差异不大,这为此次事件提供了机会。

来源: