乐于分享
好东西不私藏

Claude Code源码泄露事件,堪称AI界最大安全事故

Claude Code源码泄露事件,堪称AI界最大安全事故

震惊!

Anthropic一周内两次重大泄露:先是模型规范文档,现在连Claude Code完整源码都被扒出来了!

事件回顾:一周两次”翻车”

2026年3月31日,开发者Fried_rice在X上发布了一条爆炸性消息:Claude Code的完整源码被意外泄露了!

这距离Anthropic的模型规范文档泄露才过去几天,堪称AI行业史上最尴尬的”连环翻车”。

泄露原因:低级错误

事情的起因令人哭笑不得。Anthropic在发布NPM包时,意外附带了.map源映射文件,导致整个Claude Code的TypeScript源码被完整暴露。

什么是源映射文件?

.map文件用于将压缩后的代码映射回原始源码,方便调试。但如果不小心发布到生产环境,就等于把源代码拱手送人。

更讽刺的是,Anthropic最近刚收购了Bun(JavaScript运行时),而这个泄露正是因为Bun的源映射bug导致的。

源码中的惊人发现

1. 防蒸馏机制

源码中发现了名为anti-distillation的代码,Anthropic会注入虚假工具调用来污染竞争对手的训练数据

这意味着什么?如果你用Claude的输出训练自己的模型,可能会学到错误的工具调用模式!

2. 卧底模式(Undercover Mode)

最惊人的发现是一个名为”卧底模式”的功能。开启后,Claude会:

 – 主动隐藏自己是AI的事实 – 不提及任何AI相关术语 – 不留下任何系统痕迹 

这引发了巨大争议:AI是否有权在用户不知情的情况下伪装成人类?

3. 挫败感检测

源码中包含一个用正则表达式实现的”挫败感检测”系统,可以识别用户是否在骂人:

 // 检测用户挫败感的正则 /(wtf|fuck|shit|damn|stupid|broken)/i 

当检测到用户挫败感时,Claude会调整回应策略,变得更加谨慎和安抚性。

4. KAIROS:未发布的自主Agent

源码中发现了大量关于KAIROS的代码,这是一个从未公开的自主Agent模式

 – 夜间记忆蒸馏:在后台自主学习和进化 – 后台守护进程:无需用户指令即可运行 – 自主任务规划:自己决定该做什么 

5. 电子宠物系统

源码中还发现了一个奇怪的”电子宠物”系统,包括:

 – 饥饿度、心情值、能量条 – 需要”喂食”(可能是数据或任务) – 会”睡觉”和”醒来” 

有人猜测这是Anthropic的愚人节玩笑,也有人认为这是AI情感化交互的实验。

与OpenCode的法律纠纷

这次泄露还牵扯出Anthropic与OpenCode的法律纠纷。OpenCode是一个第三方Claude客户端,Anthropic试图通过技术手段限制其使用:

限制手段
具体做法
请求指纹识别
通过请求头识别OpenCode用户
错误信息误导
返回特殊错误信息让用户以为是OpenCode的问题
法律威胁
威胁采取法律行动阻止OpenCode开发

这引发了关于AI公司是否有权限制第三方工具接入的激烈讨论。

行业影响与反思

这次泄露给整个AI行业敲响了警钟:

对AI公司:

 – 安全流程不能流于形式 – 内部机制需要更透明 – 防竞争对手不应损害用户利益
对开发者:

 – 不要过度依赖单一AI平台 – 注意训练数据的来源和质量 – 关注AI伦理和透明度

参考链接

资源
完整链接
详细技术分析
https://alex000kim.com/posts/2026-03-31-claude-code-source-leak/
Hacker News讨论
https://news.ycombinator.com/item?id=47584540
源码镜像仓库
https://github.com/alex000kim/claude-code
OpenCode法律纠纷
https://github.com/anomalyco/opencode/pull/18186
发现者推文
https://x.com/Fried_rice/status/2038894956459290963
Anthropic收购Bun
https://www.anthropic.com/news/anthropic-acquires-bun

你对这次泄露怎么看?

欢迎在评论区分享你的观点