乐于分享
好东西不私藏

51万行代码裸奔,AI安全警钟敲响: Claude Code源码泄露事件,给所有人的安全课

51万行代码裸奔,AI安全警钟敲响: Claude Code源码泄露事件,给所有人的安全课

2026年3月31日,AI圈发生了一件”史诗级”乌龙。

Anthropic旗下明星产品Claude Code,因为一个低级的构建配置失误,完整的TypeScript源代码被意外发布到npm公共仓库。

51.2万行代码、约1900个文件,全部以明文形式暴露在互联网上。

这不是黑客攻击,不是内部泄密,而是一个**源映射文件(.map)**没删干净。


🔥 事件回顾:一个文件如何掀翻一家AI巨头

时间线:

时间
事件
3月31日
安全研究员Chaofan Shou在npm上发现异常
当天下午
源码ZIP被上传到GitHub,迅速获得数千Star
数小时内
全球开发者开始拆解代码库
Anthropic回应
“人为错误导致的打包问题,已下架受影响版本”

技术原因:

Claude Code使用Bun运行时构建,默认会生成源映射文件。这个.map文件本应被排除在发布包之外,但因为.npmignore配置遗漏,被打包进npm发布。

更致命的是——这个.map文件指向了Anthropic自家R2存储桶上的完整源码ZIP包,可直接下载


🕵️ 泄露内容:不仅是代码,更是AI公司的”底牌”

这次泄露的不仅是前端CLI工具代码,更暴露了AI产品的核心架构:

📦 40+内置工具

包括文件读写、Bash执行、Web抓取、LSP集成、MCP协议等,每个工具都有精细的权限控制机制。

🧠 4.6万行查询引擎

这是Claude Code的”大脑”,负责LLM API调用、流式传输、缓存调度——是AI产品最难设计也最有价值的部分。

🤖 多智能体协同架构

代码显示Claude Code可以”spawn”子代理(他们叫”swarms”),每个代理在独立上下文中运行,专门处理可并行的任务。

🌉 IDE桥接系统

一套JWT认证的双向通信层,让VS Code、JetBrains等IDE扩展能与CLI实时同步——”Claude在你编辑器里”体验的核心。

💾 持久化记忆系统

基于文件的记忆目录,让Claude跨会话记住你的项目偏好、上下文习惯。


🎭 隐藏彩蛋:那些未发布的功能

更让人意外的是,源码中还藏着大量功能开关控制的未发布特性

代号
功能描述
KAIROS
自主守护进程模式——在你空闲时后台运行,执行记忆整合
ULTRAPLAN
复杂规划任务云端处理
BUDDY
电子宠物风格AI伴侣,有物种、稀有度、属性设定
Undercover Mode
“卧底模式”——防止Claude向开源仓库提交代码时暴露内部信息

最讽刺的是: Anthropic专门写了一套”卧底模式”来防止AI泄露内部细节,却因为一次构建配置失误,直接把整个代码库都暴露了。


⚠️ 安全风险:知道得越多,攻击越精准

泄露的源码包含完整的系统提示词(System Prompt)、防御逻辑实现位置。

一位Reddit评论者指出:

“如果知道提示词注入防御是在什么地方实现的和实现的方式,攻击者便能更轻易地找到绕过方法。一旦掌握系统提示词,攻击者无需猜测前置内容就可以直接构造措辞精准的指令来操控模型。”

这不仅是代码泄露——更是安全防线的图纸泄露


📊 AI企业的安全困境

这次事件暴露了AI公司面临的几大难题:

1. 工程化能力跟不上技术迭代

AI公司往往聚焦于模型能力、推理性能,却忽视了软件工程的基础:发布流程审计、构建配置校验、安全发布清单。

Anthropic这已经是第三次出现源映射暴露问题。

2. 供应链攻击风险叠加

就在同一天,axios包也被入侵,恶意版本被植入远程访问木马。

由于Claude Code依赖axios,任何在该时间段安装的用户都可能引入了被感染的依赖。

两条供应链同时出事,概率有多低?偏偏就碰上了。

3. 开源与闭源的边界模糊

Claude Code本质是打包的JavaScript应用,压缩后的代码技术上一直可被逆向。

但完整、带注释的TypeScript源码,包含原始变量名、注释、模块结构——信息密度完全不同。


💡 给开发者的安全清单

无论你是独立开发者还是企业团队,这件事都是一次警钟:

✅ 发布前检查:

  • [ ] npm pack --dry-run 检查发布内容
  • [ ] .npmignore 明确排除 *.map
  • [ ] package.json 的 files 字段设置白名单
  • [ ] 构建流水线加入自动审计步骤

✅ 代码审计:

  • [ ] 系统提示词是否硬编码在前端代码中?
  • [ ] 安全防御逻辑的位置是否可被推断?
  • [ ] 未发布功能是否用feature flag保护?

✅ 供应链安全:

  • [ ] 锁文件检查可疑版本
  • [ ] 依赖更新前验证签名
  • [ ] 关键依赖使用镜像或私有仓库

🔮 更深层的思考:AI安全,不只是代码安全

这次事件让我们重新审视几个问题:

AI产品的”源代码”到底是什么?

传统软件的源代码是编译前的文本。但AI产品的核心还包括:

  • 系统提示词(System Prompt)
  • 模型架构设计
  • 训练数据配方
  • 安全对齐策略

这些”软知识”的价值,可能比代码更高。

开源AI vs 闭源AI,边界在哪里?

DeepSeek选择全面开源,Anthropic选择闭源商业化。

两种模式各有道理,但这次事件说明:闭源不是安全护城河,只是延迟暴露的时间。

AI公司该如何平衡创新速度与安全治理?

Anthropic在安全对齐上投入巨大,却在一个基础工程配置上翻车。

安全是个系统工程,短板决定整体水位。


写在最后

51万行代码泄露,Anthropic丢的是面子。

但整个AI行业,应该反思的是里子——

在疯狂追求模型能力的时代,工程安全、供应链治理、发布流程校验,这些”无聊”的基础工作,才是真正的护城河。

世界是个巨大的草台班子。

再大的公司,也会在最小的细节上翻车。

把安全当回事,别等到裸奔才后悔。