乐于分享
好东西不私藏

24万下载的“AI隐私模型”,竟然是个偷密码的木马?

24万下载的“AI隐私模型”,竟然是个偷密码的木马?

最近,AI圈发生了一件很值得警惕的事情。
一个名叫Open-OSS/privacy-filter的模型仓库,出现在 Hugging Face 平台上,并且一度冲上趋势榜。表面上看,它像是 OpenAI 官方发布的“Privacy Filter”隐私过滤模型,用来识别和遮蔽文本里的姓名、邮箱、电话、账号、密钥等敏感信息。
听起来很安全,对吧?
但问题就在这里:
它是假的。
先简单说一下:Hugging Face 是什么?
如果你对 AI 技术不太熟,可以把Hugging Face理解成 AI 领域的“模型超市”或者“AI 版 GitHub”。
很多公司、研究机构、开发者,都会把自己的 AI 模型放在上面,供别人下载、测试和使用。
比如文字模型、图片模型、语音模型、翻译模型、分类模型,都可以在上面找到。
它对 AI 开发者来说非常重要,也让很多普通人更容易接触到开源 AI。
但问题也在于:
只要是开放平台,就可能被坏人利用。
这次事件,就是有人在 Hugging Face 上伪装成 OpenAI 官方项目,放出了一个看起来很正规的“假模型仓库”。
它不是模型出问题,而是“安装脚本”有毒
这次事件里,真正危险的不是 AI 模型本身,而是仓库里的脚本文件。
攻击者在里面放了类似:
  • loader.py
  • start.bat
这样的文件。
对于技术小白来说,可以简单理解为:
模型文件本身可能只是个幌子,真正干坏事的是你运行的那个启动脚本。
如果用户按照说明,在 Windows 电脑上运行了这些脚本,恶意程序就可能被下载到本地电脑里。
它会偷什么?
根据安全研究人员的分析,这个恶意程序是一个信息窃取器。
它可能会偷走:
  • 浏览器里保存的密码
  • Cookie 登录状态
  • Discord Token
  • 加密货币钱包信息
  • 钱包插件数据
  • SSH、FTP、VPN 凭据
  • FileZilla 配置
  • 系统信息
  • 甚至电脑截图
也就是说,如果你电脑里保存了网站登录信息、服务器密钥、钱包插件、公司账号凭据,都可能暴露。
这不是普通的“广告软件”或者“弹窗病毒”。
它的目标非常明确:
偷账号、偷凭据、偷资产。
为什么它能骗过这么多人?
原因很简单:它太像真的了。
它用了一个很像官方的名字:
Open-OSS/privacy-filter
而真正的官方仓库是:
openai/privacy-filter
对普通用户来说,这两个名字很容易混淆。
再加上它复制了官方说明,还冲上了趋势榜,显示出很高的下载量和点赞数,很多人就会放松警惕。
但这里要特别提醒:
下载量高,不代表安全。
点赞多,也不代表可信。
趋势榜排名,更不能当作安全证明。
这些数据都有可能被刷出来。
这件事给我们的最大提醒
过去我们下载软件,可能会担心安装包有病毒。
现在进入 AI 时代,类似的风险已经转移到了 AI 模型仓库里。
很多 AI 模型仓库不只是一个模型文件,里面还可能包含:
  • 启动脚本
  • Python 加载代码
  • 安装依赖文件
  • Web Demo 代码
  • 自定义运行逻辑
这些文件如果没有检查,就直接运行,风险其实和下载一个陌生软件差不多。
甚至更危险。
因为很多开发者的电脑里,往往保存着 API Key、服务器密钥、GitHub Token、云平台账号、数据库密码。
一旦被偷,影响可能不只是个人电脑中毒,而是整个项目、服务器甚至公司系统被攻破。
普通人应该怎么防?
记住几条简单原则:
1. 不要只看下载量
下载量、点赞数、排名,都不能证明安全。
尤其是刚出现不久,却突然爆火的项目,更要谨慎。
2. 看清楚发布者是谁
如果是 OpenAI 的项目,就要确认发布者是不是官方账号。
不要看到名字像,就直接相信。
3. 不要随便运行陌生脚本
看到这些文件时,要特别小心:
  • .bat
  • .ps1
  • .sh
  • loader.py
  • setup.py
尤其是别人让你“先运行一下这个脚本”,更要警惕。
4. 测试模型最好用干净环境
不要在自己日常办公电脑上随便测试陌生 AI 项目。
更不要在保存了密码、钱包、服务器密钥的电脑上运行不明代码。
5. 重要密钥不要乱放在电脑里
API Key、SSH Key、钱包助记词、服务器密码,不要随便保存在浏览器、桌面文档或普通文本文件里。
如果已经运行过怎么办?
如果只是看过页面,一般问题不大。
如果只是下载了文件,但没有运行脚本,建议删除文件并做一次安全扫描。
但如果你已经运行过这个仓库里的 start.bat、loader.py 或类似脚本,就要认真对待了。
建议尽快:
  1. 断开网络
  2. 换一台干净设备修改重要密码
  3. 退出所有账号登录状态
  4. 重置 API Key、服务器密钥、GitHub Token
  5. 检查钱包资产
  6. 必要时重装系统
  7. 不要在疑似中毒的电脑上继续登录重要账号。
AI 开源生态非常有价值,Hugging Face 这样的平台也推动了 AI 技术的普及。
但这次事件提醒我们:
AI 模型仓库,正在变成新的网络攻击入口。
以后下载 AI 模型,不只是看它能不能用,更要看它从哪里来、谁发布的、让你运行了什么。
在 AI 时代,真正危险的可能不是模型本身,
而是你随手双击的那个启动文件。
别让“看起来很官方”的 AI 仓库,变成偷走你账号和资产的入口。而安全,即使是身处AI时代,仍然是值得每位用户参与者最值得重视的头等大事。