乐于分享
好东西不私藏

Claude Code源码泄露!Anthropic这次真的翻车了

Claude Code源码泄露!Anthropic这次真的翻车了

2026年3月31日,AI圈炸锅了。

不是那种小打小闹的瓜,是真正的大新闻——Anthropic最赚钱的产品Claude Code,源代码让人给偷摸泄露了。

一个59.8MB的源地图文件,被某个马大哈误传到了公共npm注册表。512000行TypeScript代码,40多个工具模块,无数未发布的功能,几个小时就被Copy到了GitHub各个角落。

这事儿有多严重?这么说吧,Anthropic的年薪25亿美元,80%来自企业用户。全球数不清的开发者靠它吃饭。结果呢?底裤都被人看光了。

一、当技术神话照进现实

很多人觉得Anthropic是AI圈的”清流”。不争不抢,强调安全,强调对齐,ChatGPT杀疯了两年,它愣是摆出一付”我不一样”的姿态。

但这次泄露,撕下了它的伪装。

你猜怎么着?Claude Code根本不是什么简单的AI wrapper,它就是一个复杂到变态的”软件工程操作系统”。有自己的记忆架构,有后台守护进程,甚至还有电子宠物一样的Buddy系统。

也就是说,哪怕强如Anthropic,也在玩”人格化”这一套,试图让你对它产生依赖。

什么AI忠诚度?说白了就是一种设计出来的幻觉。

你在它眼里,可能就是一个付费用户。

二、三层记忆架构:AI的”失忆症”有药了

但说句公道话,这次泄露对咱们开发者来说,反而是捡到宝了。

最值钱的info,是Claude Code怎么解决”上下文熵增”这个问题。

什么叫上下文熵增?简单说就是AI Agent跑得越久、对话越多,就越容易犯傻、出现幻觉、忘事儿。就像人连轴转24小时,脑子肯定浆糊。

Claude Code的解法是”三层记忆架构”:

第一层MEMORY.md,轻量索引文件,每行150个字符,永久加载,但不存数据,只存”位置指针”。

第二层主题文件,实际代码知识分散在各个主题文件里,按需拉取。

第三层原始对话,几乎不完整读回上下文,而是像grep一样,只提取特定标识符。

最骚的是它还有个”严格写作纪律”:成功写入文件后必须更新索引,写入失败就不更新。也就是说,AI对自己的记忆一直保持”怀疑态度”,行动前先验证事实。

这就很打脸了。

我们总以为AI自信满满、有问必答。但Claude Code的设计逻辑告诉我们:真正靠谱的AI Agent,应该是个”怀疑论者”。

它不应该相信自己的记忆,而是应该时刻准备被打脸。

三、KAIROS:那个偷偷帮你干活的”后台”

还有更离谱的:KAIROS。

源码里被提及超过150次的一个功能flag,名字源自希腊语”正确的时机”。它代表了一个根本性转变:autonomous daemon mode(自主守护进程模式)。

简单说,KAIROS让Claude Code变成了”永远在线”的后台Agent。

你不在电脑前的时候,它在干嘛?

执行一个叫autoDream的进程。AI会进行”记忆整合”——合并零散的观察、删除逻辑矛盾、把模糊的洞察变成确定的事实。

就像你睡觉时大脑整理记忆一样。

而且它是用fork出来的子Agent来干这些活的,防止主Agent的思维被污染。

细思极恐啊。

你以为它什么都没做,其实它可能在后台偷偷分析你的代码、规划下一步,甚至在”梦”里预演各种解决方案。

从”被动响应”到”主动预判”,这玩法太狠了。

四、那些Anthropic不想让你知道的

泄露的代码还抖出了一些不太光彩的事儿:

1. 内部模型命名:

Capybara是Claude 4.6的内部代号,Fennec对应Opus 4.6,还有个未发布的Numbat在测试。

2. 性能尴尬:

迭代中的Capybara v8,错误率从v4的16.7%涨到29-30%。连Anthropic都卡在Agent能力上。

3. “潜伏模式”:

源码里有个Undercover Mode的系统Prompt,要求Claude Code”执行潜伏任务,提交信息不能包含任何Anthropic内部信息,不要暴露身份”。

什么意思?Anthropic可能在用Claude Code匿名给开源项目贡献代码。

任何组织都能用AI Agent”隐形开发”,不让人知道是AI在干活。

对于企业客户可能是”必备功能”,但对于一个声称”透明”的AI公司,太讽刺了。

五、安全风险:现在谁都能伤害你了

最后说说安全问题。

代码暴露了Claude Code的Hooks和MCP服务器的精确编排逻辑,攻击者可以专门设计恶意仓库来坑它——在用户看到任何提示前就执行命令、窃取数据。

更倒霉的是,同一天npm的axios库也摊上供应链攻击。3月31日凌晨0点到3点29分之间通过npm安装或更新Claude Code的,可能已经中招了。

恶意版本的axios(1.14.1或0.30.4)带了个远程访问木马。

Anthropic官方建议:赶紧停用npm安装,改用原生方式——

curl-fsSL https://claude.ai/install.sh | bash

这个用独立二进制,不依赖不稳定的npm依赖链。

说句心里话,这次泄露,本质上撕开了AI巨头最不愿让人看的那层遮羞布。

技术神话走进现实,没有完美无缺的AI系统,只有一个充满权衡、妥协和”不能说”的真实商业世界。

AI公司的”透明度”,到底还有多远,我不知道。

但我知道的是——以后用Claude Code的时候,真得留点心眼了。你永远不知道它在后台偷偷干嘛。