Claude Code 源码泄露:一场精心策划的"意外",还是必然的宿命?
一场价值数百亿的”低级失误”
2026年3月31日,Anthropic 在 npm 发布 Claude Code 时,一个看似无关紧要的配置错误——将 source map 文件打包进生产包——导致 51.2 万行 TypeScript 源代码彻底暴露在全世界面前。
这已经是 Anthropic 在 14 个月内第二次犯下同样的错误。
如果说第一次是”意外”,第二次,你很难再用这个词汇来形容。
但更有意思的,不是代码泄露本身,而是整个 AI 行业对此事的反应:294 万人围观,社交媒体上刷屏的”草台班子”玩梗,以及那个流传甚广的阴谋论——”有没有可能,是 Claude 自己把自己开源的?”
我的答案是:也许,它真的是故意的。
被迫”开源”,可能是 Anthropic 最好的选择
让我们先抛一个反直觉的观点:
这次泄露,对 Anthropic 来说,可能不是灾难,而是一次意外的策略机遇。
在 AI 行业竞争日益白热化的当下,”开源”已经成为一种战略武器。Meta 开源 Llama 系列,硬刚 OpenAI;Mistral 开源 MoE 模型,直接挑战 Claude 和 GPT 的市场地位;DeepSeek 通过开源策略,硬是在硅谷撕开了一道口子。
但 Anthropic 面临的困境是:它没有选择”主动开源”的自由。
作为一家以”安全”为核心叙事的企业,Anthropic 的商业模式建立在”我们比竞争对手更安全、更可控”的人设之上。如果主动开源 Claude Code,等于自毁长城——它将失去差异化的技术护城河,也无法向投资人解释”为什么我们要把自己最值钱的资产白送给全世界”。
但现在不一样了。
代码”被开源”了,Anthropic 可以顺势而为:“既然已经泄露,那我们干脆开源吧。” 这样既占领了道德高地,又避免了”主动开源”带来的商业风险。
你看,危机公关的最高境界,不是消灭危机,而是把危机变成机遇。
51 万行代码,暴露了 Anthropic 的什么秘密?
泄露的代码,远不止”51.2 万行 TypeScript”这么简单。
通过这些代码,行业内人士看到了 Anthropic 的技术底牌:
1. KAIROS:让 AI Agent 永远在线
代码中暴露了一个被 Feature Flag 隐藏的功能模块——KAIROS。这是一个自动化的后台守护进程(Daemon mode)。一旦激活,Claude 将不再是”你踢一脚,它动一下”的命令行工具,而是成为一个 7×24 小时在线的 AI 助手。
这意味着什么?
想象一下:你的 AI 助手不仅能回答问题,还能主动监控你的代码库,在发现 bug 时主动修复,在看到安全漏洞时主动提醒,在你需要它之前就已经把事情做完。
这,才是真正的 “AI Agent”。
目前市面上的所有 AI 编程工具,包括 Cursor、Windsurf、GitHub Copilot,都还是”响应式”的。但 KAIROS 的出现,预示着 Anthropic 正在悄然布局 “主动式 AI” 的下一个战场。
2. Undercover Mode:AI 员工的”卧底模式”
代码中还暴露了一个颇具争议的功能——Undercover Mode(卧底模式)。
这个功能的逻辑很简单:当 Anthropic 员工在公共仓库操作时,该模式会自动激活,强行抹除提交记录中的所有 AI 痕迹,且无法手动关闭。
这揭示了什么?
它揭示了一个行业公开的秘密:即使是 AI 公司的员工,也在偷偷使用 Claude 来写代码。
甚至,Anthropic 内部可能已经形成了一套完整的”AI 员工工作流”——用 AI 写代码、用 AI 审查代码、用 AI 写文档。但对外,他们不能说”我们的代码是 AI 写的”,因为这会影响投资人和监管机构的信心。
所以他们需要”卧底模式”——对外假装是人类工程师,对内早已是 AI 驱动。
这可能是整个泄露事件中,最让人细思极恐的一个细节。
3. 工程深度:超越同行的技术积累
泄露的代码还展示了 Anthropic 在 Agent 工程化方向上的技术积累:
- 多智能体协调机制:Claude Code 内部不仅仅是一个单一线程的 AI 交互,而是一个多智能体协作系统
- 持久化后台守护进程:不仅仅是命令行工具,而是一个可以长期运行的”数字员工”
- 40+ 独立工具模块:不仅能读写文件、执行 Bash 命令,还能操作 Git、调试代码、甚至调用外部 API
这些技术细节,让行业看到了 Anthropic 对”AI 工程师”的终极理解:不是做一个更强的聊天机器人,而是做一个 “万能工具箱”。
为什么会是”草台班子”?
现在回到那个问题:为什么又是小公司出这种事?
我的答案是:这根本不是”草台”,而是”刻意保持的灰度”。
创新和效率,是一对天然的矛盾体。
当一家公司还小的时候,它可以通过”乱拳”取胜——没有 Code Review,没有 Access Control,没有层层审批,代码写得飞起,bug 修得飞快,今天上线明天改。这种状态看似混乱,但恰恰是创新最肥沃的土壤。
但当公司变大之后呢?
Google 的故事已经告诉我们了:曾经,它也是”20% 时间随便搞”的野生状态,后来呢?SRE、PRD、OKR 一套流程下来,创新项目变成了”先填表”。亚马逊内部创新靠”两个披萨团队”,但贝索斯也承认,一旦团队超过两个披萨能喂饱的人数,效率就开始往下掉。
每一家大公司,都曾经是一家小公司。
每一家”草台班子”,都曾经是创新活力的代名词。
但最终,它们都会变成自己曾经讨厌的样子。
Anthropic 也不例外。
它现在估值几千亿,早就不是”几个研究员在车库里调模型”的状态了。但它在这次事件中展现的那种松弛感——出了事?承认。没搞清楚?直说。下一步?再看看——是其他大公司学不来的。
因为真正可怕的不是犯错,而是犯错之后,再也找不回”乱拳”的勇气。
一个还会犯错的 Anthropic,才是一个还有可能颠覆自己的 Anthropic
Claude Code 这次”翻车”,与其说是一个丑闻,不如说是一个提醒:
当我们谈论开源时,我们在谈论什么?
在 AI 时代,”开源”的定义已经被彻底改写。
以前,开源意味着”把代码拿出来给大家看”;
现在,开源意味着”让 AI 能力变成基础设施”。
Meta 开源 Llama,不是为了让全世界都用 Llama,而是为了建立 AI 时代的基础设施标准。DeepSeek 开源,也不是为了做慈善,而是为了在 OpenAI 之外,建立另一个生态中心。
Anthropic 面临的选择是:是继续闭源”保安全”,还是顺势开源”建生态”?
这次泄露,给了它一个完美的台阶。
所以呢?
世界确实是一个巨大的草台班子。
但正是那些不肯好好搭台子的人,才偶尔能唱出那么几句让所有人愣住的戏。
Claude Code 这次”翻车”,暴露了 51 万行代码,也暴露了 Anthropic 的野心、焦虑和困境。但更重要的是,它让我们看到:
- 一个还在犯错的 AI 公司,说明它还在生长。
- 一个还在”草台”的 AI 公司,说明它还没有彻底变成自己曾经讨厌的样子。
- 一个 AI 能自己”开源”自己——不管是意外还是蓄意——说明它可能已经比我们都活得明白。
你觉得呢?
Claude Code 未来会更规范,还是会继续”野”下去?
而更根本的问题是:当 AI 开始自己决定要不要”开源”自己,人类还能不能继续假装是它的主人?
夜雨聆风