51万行源码"裸奔"!Anthropic这次的事故,比你想象的严重得多

AI安全 · 热点事件
3月31日,一个59.8MB的文件,在全球AI圈引爆了一场轩然大波。
没有黑客,没有入侵,没有间谍。
只是一个忘记删文件的操作失误。
Anthropic,全球最顶级的AI安全公司之一
就这样,把自己的”底裤”晒在了全世界面前。
一、事情是怎么发生的?
一个”低级失误”引爆的危机
Anthropic旗下有一款明星AI编程工具,叫做Claude Code。
3月31日,它发布了2.1.88版本更新。
就在这次更新里,开发团队犯了一个让人哭笑不得的错误:
他们忘记删除一个叫做”Source Map”的文件。
这个文件,原本是给开发者调试用的——它能把压缩混淆后的代码”翻译”回原始的可读源码。
结果,这个文件被一起打包进了正式发布版本,公开分发给了全世界。
等于在银行金库门上,挂了一把开着的锁。
泄露了什么?
打开这份文件,里面躺着的是:
- 超过51.2万行TypeScript源码
- 4756个源文件
- 40余个工具模块
-
未发布的功能路线图 -
内部系统提示词架构 -
多智能体协作框架设计
这些代码,原本应当被混淆、被保护,是Anthropic斥巨资构建的核心竞争壁垒。
二、代码里藏着什么秘密?
1. 电子宠物彩蛋
研究者在代码里发现了一个意想不到的东西——
一个类似拓麻歌子(Tamagotchi)的”电子宠物”功能模块。
这个虚拟宠物会待在用户的命令行输入框旁,对你的编码行为实时作出反应。
这个略显温情又略显奇特的彩蛋,让外界对Anthropic产品团队的真实气质有了意外一瞥。
2. 神秘的”KAIROS”后台智能体
更引人关注的是一个代号为“KAIROS”的功能。
从代码结构分析,这很可能是Anthropic正在测试的“always-on agent”——一个能够在后台持续运行、不间断代理用户执行任务的智能体。
简单说:一个24小时不睡觉、一直在帮你干活的AI助手。
3. “卧底模式”与权限绕过
部分代码揭示了Anthropic正在测试更高阶的权限控制策略,包括所谓“卧底模式”(stealth mode)和”绕过权限模式”。
这些内容一旦落入恶意行为者手中,其潜在风险不可估量。
4. 提示词工程的完整骨架
系统提示矩阵(System Prompt Matrix)的曝光,让外界得以窥见Anthropic如何用精确的Prompt工程来约束和操纵模型行为——
这正是AI安全领域最不愿意公开的”内功心法”。
三、最戏剧性的反转:那个”被解雇的工程师”,根本不存在
就在外界还在为”谁来为这次泄露负责”争论时,一封”认罪信”率先出现在社交媒体上。
一名自称为Kevin Naughton Jr.的工程师发帖称:
“是我在发布Claude Code时操作失误,将包含源码的打包文件推送了出去,并因此遭到Anthropic解雇。”
帖子措辞诚恳,自责之情溢于言表,迅速引发了广泛同情。
然而——
这个人根本不是Anthropic的员工。
他是一位创业者,公司名叫Ferryman。
他借助真实发生的源码泄露事件,虚构了一套”内部工程师顶罪”的戏码,在引发广泛关注之后,帖子评论中悄悄附上了自家产品的优惠码。
这出闹剧,被AI圈人士评为2026年迄今为止最具讽刺性的营销事件之一。
但这场闹剧同时也提出了一个令人不安的问题:
当一个虚假的”解雇声明”比官方回应更能引发公众共情,公众对AI公司官方话术的信任,究竟还剩几分?
四、屋漏偏逢连夜雨:一周内的第二次失误
如果说这是一次孤立的偶发事故,或许可以理解。
但令人警觉的是——这是Anthropic一周内遭遇的第二起重大数据失误。
就在数日前,Anthropic已经因意外泄露了一个代号为“Mythos”的未发布新模型信息而陷入舆论风波。
接连”手滑”的背后,暴露的是Anthropic在发布管控以及内部审查机制上的系统性漏洞。
偏偏此刻,Anthropic正处于准备IPO的关键窗口期。投资者正在评估这家公司的工程严谨性、数据安全能力与内控管理水平。
五、这件事对普通用户意味着什么?
1. 你的数据安全吗?
Anthropic官方声明:“未涉及任何客户数据或凭证。”
也就是说,你用Claude聊天的记录、你的账号信息,这次没有泄露。
但这次泄露的是Claude的”大脑结构”——它是怎么思考的、怎么被约束的、有哪些隐藏功能。
2. AI公司的”护城河”有多脆弱?
这次事件揭示了一个残酷的现实:
-
AI公司的核心竞争力,越来越依赖于”不可见性” -
但代码一旦以工具形式分发,就天然面临泄露风险 -
51万行代码,一个忘删的文件,就全没了
覆水难收。代码已被镜像数万次,DMCA删除函几乎无效。这一次,时间站在互联网这边,而不是Anthropic那边。
3. 对AI行业的启示
这件事给所有AI公司敲响了警钟:
- 发布流程必须严格审查
,一个配置疏忽就能酿成大祸 - AI安全不只是模型安全
,工程安全同样重要 - 信任比技术更难建立
,一次失误可能毁掉多年积累
六、总结
Anthropic是全球最重视AI安全的公司之一。它的创始人从OpenAI出走,就是因为觉得OpenAI”不够安全”。
但讽刺的是——
最重视安全的AI公司,
因为一个忘删的文件,
把自己的核心代码晒给了全世界。
这件事最大的教训不是”要更安全”,而是:在AI时代,任何公司都没有绝对的护城河。技术可以被复制,代码可以被泄露,但信任一旦失去,比代码更难找回。
AI方舟人工智能 · 热点解读 · 原创出品
夜雨聆风