字节跳动大模型训练被实习生攻击
【字节跳动大模型训练被实习生攻击】近日,有网友透露,某头部大厂的大模型训练被实习生入侵,注入了破坏代码,致其训练成果不可靠,可能需要重新训练,而遭到入侵的代码注入了8000多张卡,带来的损失可能超过千万美元。
接着,有知情人称,该头部大厂为字节跳动,此事发生在今年6月,起因是某高校的博士在字节跳动商业化技术团队实习,因对团队资源分配不满,使用攻击代码破坏团队的模型训练任务,目前,官方未进行回应。
据了解,该田姓实习生利用了HF(huggingface)的漏洞,在公司的共享模型里写入破坏代码,导致模型的训练效果忽高忽低,无法产生预期的训练效果,在传闻曝出之后,该实习生还在某微信群里辟谣称,自己发完论文后就从字节跳动离职,这个当口有另一个人钻漏洞改模型代码,把锅扣到自己头上,但该实习生攻击的并不是豆包大模型,而是商业化技术团队的模型训练任务,影响了该技术团队的一些业务进展,但整体对公司造成的损失并没有传闻中的超过千万美元那么大。
对此,有专家称,HF漏洞产生肯定是单一性集中训练,此事暴露了字节跳动技术训练存在安全管理问题,公司既没做权限隔离,也没有做好共用代码的审计,正常情况下,每次大的代码变动必须做审计,无论谁做操作都有痕迹记录,一个人想动代码是不可能的,目前行业通用的做法是做三级隔离导向性部署,每一级只有镜像,每次先扫描。调用按次算、必须密钥,每一级完成后,才能进入下一级,而上一级自动删除,进行分级训练。
以上就是【字节跳动大模型训练被实习生攻击】相关内容,更多资讯请关注安徽慧尔净化设备有限公司。
版权声明
本文仅代表作者观点,不代表百度立场。
本文系作者授权百度百家发表,未经许可,不得转载。