乐于分享
好东西不私藏

51万行源码"裸奔"!Anthropic这次的事故,比你想象的严重得多

51万行源码"裸奔"!Anthropic这次的事故,比你想象的严重得多

AI安全 · 热点事件

3月31日,一个59.8MB的文件,在全球AI圈引爆了一场轩然大波。

没有黑客,没有入侵,没有间谍。

只是一个忘记删文件的操作失误。


Anthropic,全球最顶级的AI安全公司之一

就这样,把自己的”底裤”晒在了全世界面前。


 一、事情是怎么发生的?

一个”低级失误”引爆的危机

Anthropic旗下有一款明星AI编程工具,叫做Claude Code

3月31日,它发布了2.1.88版本更新。

就在这次更新里,开发团队犯了一个让人哭笑不得的错误:

他们忘记删除一个叫做”Source Map”的文件。

这个文件,原本是给开发者调试用的——它能把压缩混淆后的代码”翻译”回原始的可读源码。

结果,这个文件被一起打包进了正式发布版本,公开分发给了全世界。

等于在银行金库门上,挂了一把开着的锁。


泄露了什么?

打开这份文件,里面躺着的是:

  • 超过51.2万行TypeScript源码
  • 4756个源文件
  • 40余个工具模块
  • 未发布的功能路线图
  • 内部系统提示词架构
  • 多智能体协作框架设计

这些代码,原本应当被混淆、被保护,是Anthropic斥巨资构建的核心竞争壁垒


 二、代码里藏着什么秘密?

1. 电子宠物彩蛋

研究者在代码里发现了一个意想不到的东西——

一个类似拓麻歌子(Tamagotchi)的”电子宠物”功能模块。

这个虚拟宠物会待在用户的命令行输入框旁,对你的编码行为实时作出反应。

这个略显温情又略显奇特的彩蛋,让外界对Anthropic产品团队的真实气质有了意外一瞥。

2. 神秘的”KAIROS”后台智能体

更引人关注的是一个代号为“KAIROS”的功能。

从代码结构分析,这很可能是Anthropic正在测试的“always-on agent”——一个能够在后台持续运行、不间断代理用户执行任务的智能体。

简单说:一个24小时不睡觉、一直在帮你干活的AI助手。

3. “卧底模式”与权限绕过

部分代码揭示了Anthropic正在测试更高阶的权限控制策略,包括所谓“卧底模式”(stealth mode)和”绕过权限模式”。

这些内容一旦落入恶意行为者手中,其潜在风险不可估量。

4. 提示词工程的完整骨架

系统提示矩阵(System Prompt Matrix)的曝光,让外界得以窥见Anthropic如何用精确的Prompt工程来约束和操纵模型行为——

这正是AI安全领域最不愿意公开的”内功心法”


 三、最戏剧性的反转:那个”被解雇的工程师”,根本不存在

就在外界还在为”谁来为这次泄露负责”争论时,一封”认罪信”率先出现在社交媒体上。

一名自称为Kevin Naughton Jr.的工程师发帖称:

“是我在发布Claude Code时操作失误,将包含源码的打包文件推送了出去,并因此遭到Anthropic解雇。”

帖子措辞诚恳,自责之情溢于言表,迅速引发了广泛同情。


然而——

这个人根本不是Anthropic的员工。


他是一位创业者,公司名叫Ferryman

他借助真实发生的源码泄露事件,虚构了一套”内部工程师顶罪”的戏码,在引发广泛关注之后,帖子评论中悄悄附上了自家产品的优惠码。

这出闹剧,被AI圈人士评为2026年迄今为止最具讽刺性的营销事件之一。

但这场闹剧同时也提出了一个令人不安的问题:

当一个虚假的”解雇声明”比官方回应更能引发公众共情,公众对AI公司官方话术的信任,究竟还剩几分?


 四、屋漏偏逢连夜雨:一周内的第二次失误

如果说这是一次孤立的偶发事故,或许可以理解。

但令人警觉的是——这是Anthropic一周内遭遇的第二起重大数据失误

就在数日前,Anthropic已经因意外泄露了一个代号为“Mythos”的未发布新模型信息而陷入舆论风波。

接连”手滑”的背后,暴露的是Anthropic在发布管控以及内部审查机制上的系统性漏洞

偏偏此刻,Anthropic正处于准备IPO的关键窗口期。投资者正在评估这家公司的工程严谨性、数据安全能力与内控管理水平。


 五、这件事对普通用户意味着什么?

1. 你的数据安全吗?

Anthropic官方声明:“未涉及任何客户数据或凭证。”

也就是说,你用Claude聊天的记录、你的账号信息,这次没有泄露

但这次泄露的是Claude的”大脑结构”——它是怎么思考的、怎么被约束的、有哪些隐藏功能。

2. AI公司的”护城河”有多脆弱?

这次事件揭示了一个残酷的现实:

  • AI公司的核心竞争力,越来越依赖于”不可见性”
  • 但代码一旦以工具形式分发,就天然面临泄露风险
  • 51万行代码,一个忘删的文件,就全没了

覆水难收。代码已被镜像数万次,DMCA删除函几乎无效。这一次,时间站在互联网这边,而不是Anthropic那边。

3. 对AI行业的启示

这件事给所有AI公司敲响了警钟:

  • 发布流程必须严格审查
    ,一个配置疏忽就能酿成大祸
  • AI安全不只是模型安全
    ,工程安全同样重要
  • 信任比技术更难建立
    ,一次失误可能毁掉多年积累

 六、总结

Anthropic是全球最重视AI安全的公司之一。它的创始人从OpenAI出走,就是因为觉得OpenAI”不够安全”。

但讽刺的是——

最重视安全的AI公司,

因为一个忘删的文件,

把自己的核心代码晒给了全世界。


这件事最大的教训不是”要更安全”,而是:在AI时代,任何公司都没有绝对的护城河。技术可以被复制,代码可以被泄露,但信任一旦失去,比代码更难找回。


AI方舟人工智能 · 热点解读 · 原创出品