字节跳动实习生破坏 AI 模型训练,损失金额和处理方式被夸大

事件背景:实习生破坏 AI 模型训练

据 “证券时报・e 公司” 报道,接近字节跳动的人士今日就 “字节大模型遭实习生攻击” 一事表示,确有实习生破坏 AI 模型训练,但损失金额和处理方式被夸大。事件源自今年 6 月,某高校博士在字节跳动商业化技术团队实习期间,因为对团队资源分配不满,使用攻击代码破坏团队的模型训练任务。

传闻与事实:实习生破坏行为

近期流传的消息称,这名田姓实习生利用了 HF(huggingface)的漏洞,在公司的共享模型里写入破坏代码,导致模型的训练效果忽高忽低,无法产生预期的训练效果,且 AML 团队无法核查原因。然而,传闻曝出后,该实习生在某微信群里辟谣称,自己发完论文后就从字节跳动离职,事件发生时是另一个人钻漏洞改模型代码,试图将责任推到自己头上。

内部调查与处理

知情人士称,字节跳动内部已经调查明确此事为田姓实习生所为。目前,该实习生已被辞退,字节跳动同时将此事同步给阳光诚信联盟和企业反舞弊联盟,以及该实习生所在的学校。然而,这名实习生被辞退后到处 “辟谣” 甩锅,称是其他人所为。

损失金额和处理方式被夸大

尽管事件的真实性得到了确认,但接近字节跳动的人士表示,损失金额和处理方式被夸大。虽然实习生的破坏行为对模型训练造成了一定影响,但具体损失并未达到传闻中所描述的严重程度。

总结

字节跳动实习生破坏 AI 模型训练事件引发了广泛关注,尽管损失金额和处理方式被夸大,但事件的确对公司内部的模型训练任务造成了影响。字节跳动已经采取了相应的处理措施,包括辞退实习生并将事件通报相关联盟和学校。此事件提醒我们,企业在实习生管理和技术安全防护方面需要更加谨慎,以防止类似事件再次发生。
总的来说,这起事件不仅暴露了企业在技术管理和内部监督方面的漏洞,也为其他公司敲响了警钟。在未来,企业应加强对实习生的管理和技术防护,确保团队资源的合理分配和技术安全的保障。