近日,关于字节跳动大模型训练遭实习生“投毒”一事引发了广泛关注。
根据网传消息显示,某头部大厂的大模型训练被实习生入侵,注入了破坏代码,导致其训练成果不可靠,可能需要重新训练。此次“投毒”事件,遭到入侵的代码注入了8000多张卡,带来的损失可能超过千万美元。
(网传字节跳动大模型训练被实习生攻击)
另据知情人士透露,该大厂为字节跳动,事情发生在2024年6月底,某著名高校博士生田某某,在商业化技术团队实习时,因对团队资源分配不满,于是便利用HF(huggingface)平台的漏洞,在公司的共享模型里写入破坏代码,导致模型的训练效果忽高忽低,无法产生预期的训练效果。
该知情人士称,这件事对公司近30位各级员工造成了巨大伤害,他们的努力和工作成果在近一个季度内全都白费。
同时,该知情人士还分享了一则调查人员对田姓实习生的询问录音,录音中的对话还原了其攻击的过程:田某最先输入的code本来是被用于影响通讯和随机性的,“最开始的时候它并不是以攻击为目的,它是为了debug,但这确实会涉及到程序的一些运行情况。但后面它经过一些文件,就是那些upload文件,code也会被update,code就变成了攻击code。它大概的作用就是去修改code,然后就会造成一些后果。”
(网传字节跳动大模型训练被实习生攻击)
该事件一经曝光,立刻引起了网友们的关注和热议,而字节跳动官方也在第一时间作出了回应。
10月19日,字节跳动发布澄清说明称,“确有商业化技术团队实习生恶意干扰团队研究项目的模型训练任务,该实习生已被辞退,但这并不影响商业化的正式项目及线上业务,也不涉及字节跳动大模型等其他业务。”
同时,字节跳动强调,网传“涉及8000多卡、损失上千万美元”严重夸大。经核实,涉事人一直在商业化技术团队实习,并没有AI Lab实习经历,其社交媒体个人简介及部分媒体报道有误。
字节跳动表示,该实习生已在8月被公司辞退,公司也将其行为同步给行业联盟和所在学校,交由校方处理。
(字节跳动回应“实习生破坏大模型”事件)
针对此事,有行业专家指出,该事件也反映了字节跳动的安全管理问题,包括权限隔离、共用代码的审计等。
最后,大家有何看法?欢迎在评论区留言,阐述你的观点。