最近,开源组件库成为了黑客供应链攻击的新目标,甚至扩展到了人工智能(AI)框架和机器学习(ML)模型领域。研究发现,有黑客在Python Package Index(PyPI)上上传了伪装成阿里云AI实验室SDK的恶意软件包。
这些恶意包名为aliyun-ai-labs-snippets-sdk、ai-labs-snippets-sdk和aliyun-ai-labs-sdk,合计下载量达1600次,虽然上线不到一天就被下架,但其危害不可小觑。它们通过加载恶意的PyTorch模型,执行base64编码的代码,窃取用户的登录信息、网络地址以及组织名称等敏感数据。
值得注意的是,黑客利用Pickle格式存储恶意ML模型,因为当前安全工具对ML文件格式中的恶意行为检测能力有限。Pickle是Python官方模块,常用于序列化对象并存储与PyTorch相关的模型。然而,这一特性却被黑客利用,在Hugging Face等平台上托管被污染的模型。
尽管Hugging Face引入了Picklescan工具来检测潜在威胁,但研究人员指出仍存在绕过检测的可能性。这次攻击主要针对中国开发者,但也提醒全球开发者需警惕类似的诱饵手法。
此次事件暴露了机器学习模型文件格式的安全风险,也表明现有安全工具在应对恶意ML模型方面尚不完善。开发者们务必提高警惕,选择可靠的依赖包,并定期更新安全工具以防范潜在威胁。
[hhw123pingdao]
温馨提示:
- 请注意,下载的资源可能包含广告宣传。本站不对此提供任何担保,请用户自行甄别。
- 任何资源严禁网盘中解压缩,一经发现删除会员资格封禁IP,感谢配合。
- 压缩格式:支持 Zip、7z、Rar 等常见格式。请注意,下载后部分资源可能需要更改扩展名才能成功解压。
- 本站用户禁止分享任何违反国家法律规定的相关影像资料。
- 内容来源于网络,如若本站内容侵犯了原著者的合法权益,可联系我们进行处理,联系微信:a-000000
📝留言定制 (0)