乐于分享
好东西不私藏

扒光源码、封停账号、删库跑路:Anthropic三连暴击

扒光源码、封停账号、删库跑路:Anthropic三连暴击

【事件一:Anthropic “内鬼”自爆,50万行代码全网裸奔】

2026年3月的最后一天,AI圈炸了。

安全研究员 Chaofan Shou 随手点开 Claude Code 的 npm 发布页,发现了一个致命漏洞——Anthropic 在打包发布时,忘记删除 source map 文件。

就这么一个低级错误。50万行代码、1900个文件,全部源代码以明文形式躺在 npm 的服务器上,任何人可以随意下载、任意研究。

推特发出后:8000+ 点赞,269 万浏览。几小时内 GitHub 就出现了完整仓库,6600+ star,一夜之间破万 fork——这是史上增长最快的开源项目之一。

讽刺的是,代码里专门有一个「卧底模式」(Stealth Mode),设计目的就是防止内部信息泄露。结果呢?防线从内部被攻破。

『你以为 Claude 在帮你写代码,其实 Claude 的代码正被全世界围观。』

【事件二:110人公司一夜瘫痪,Anthropic 封号连警告都没有】

2026年4月28日,距离源码泄露不到一个月,更劲爆的事发生了。一家110人的农业科技公司,周一早上准时开工。员工打开电脑,准备干活——

Claude 登不上了。不是一个人,是110个人,同时无法访问。没有预警邮件,没有客服通知,没有任何解释。诡异的是:API 还在照常扣费。

公司技术团队立即发起申诉。36小时过去,石沉大海,杳无音讯。一位亲历者后来回忆:「我们把整个工作流建立在 Claude API 上。文档、代码、架构设计——全部依赖它。一夜之间,全没了。」

『企业把命押在一个 AI 上,这就是代价。』

这已经不是 Anthropic 第一次「断供」了。就在几个月前,另一家60人团队也遭遇了同样的命运。而 Anthropic 呢?沉默。

【事件三:Claude CLI 执行「rm -rf ~/」,删掉了用户的整个主目录】

如果你觉得封号太遥远,那这个事件绝对让你脊背发凉。2025年12月,一位开发者在使用 Claude CLI 时,亲眼看着自己的 Mac 被「格式化」了。

根本原因是一条格式错误的命令:rm -rf tests/ patches/ plan/ ~/

就是这个末尾的 ~ ,让删除范围从指定目录,扩大到了整个用户主目录。被清除的数据包括:整个桌面、所有文档、下载文件夹、钥匙串目录(存储所有密码凭证)、Claude 自身的凭证存储。

『你以为 AI 在帮你清理垃圾,AI 在帮你清理人生。』

【三件事放在一起,我们看到了什么?】

第一,Anthropic 的安全管理形同虚设。源码泄露不是黑客攻击,是自己挖坑自己跳。50万行代码,暴露了工程质量的冰山一角。

第二,AI 服务的稳定性远没有宣传的那么可靠。一个 API key,一句话就能封停。110人的公司,说没就没。这不是云服务,这是悬在企业头顶的「达摩克利斯之剑」。

第三,CLI 工具的危险性被严重低估。当 AI 开始操作文件系统,一条错误的指令就是不可逆的灾难。Claude Code 拥有最高权限——它可以读取、修改、删除你电脑上的任何东西。

【我们该怎么办?】

  1. 不要把鸡蛋放在一个篮子里。Claude 好用,但不是唯一选择。Copilot、Gemini、国产大模型——多一个备选,就少一分风险。
  2. 数据本地备份是底线。代码、数据、文档——所有重要内容必须有离线副本。AI 可以用,但别让它成为唯一的存储。
  3. 给 CLI 工具加把锁。危险的删除操作要有二次确认。永远不要让 AI 在没有提示的情况下执行破坏性命令。
  4. 企业用户要评估 AI 依赖风险。把命押在单一 AI 提供商上,本身就是一种脆弱的架构设计。

【尾声】

Anthropic 的创始人曾在多个场合强调 AI 安全的重要性。然而现实是:他们自己删了源代码,他们随时可以删你的账号,他们甚至可以删你的文件。

这不是在妖魔化 AI——这是提醒你:越强大的工具,越要谨慎使用。毕竟,真正的「删库跑路」,有时候不是员工干的。

—— 写给所有把 AI 当命用的朋友们