Claude源码泄漏:一家AI巨头被扒光之后
你有没有想过,某天早上醒来,发现自己公司的核心产品源码,被人挂在了GitHub上公开下载?
这不是假设。2026年3月底,Anthropic就经历了一场噩梦般的”双重泄漏”——先是内部文件,再是完整源码。而且最讽刺的是,这一切源于一个技术失误:npm发布时忘记删除source map文件。任何懂点技术的人,打开浏览器开发者工具就能还原出51万行代码。
让我们看看这场事故到底发生了什么,以及它对你我意味着什么。

一周之内,两次暴击
3月27日,Anthropic意外泄漏近3000个内部文件,包含未发布模型”Claude Mythos”的信息。四天后,更大的炸弹来了——Claude Code CLI的完整源码被放到npm上,1900个文件,51万行代码,清清楚楚。
Claude Code是什么概念?这是Anthropic增长最快的业务,2025年11月ARR达到10亿美元,占公司总收入的12%。相当于一个创业公司瞬间被扒光了所有家底。
技术原因简单得让人无语:source map文件没有删除。这本该是部署检查清单里最基础的一项。但就是这样一个疏忽,让全球开发者都拿到了Anthropic的”独家教材”。

社区狂欢,公司焦虑
GitHub仓库ultraworkers/claw-code破10万星的速度创造了历史纪录。开发者们兴奋地研究源码,社区甚至快速推出了Rust版本的开源实现。
Anthropic的反应很激烈——DMCA takedown通知飞向GitHub。但这一招打偏了:错误删除了8100个仓库,后来才承认错误撤回,最终把目标缩小到96个。这场”误伤”让Anthropic的公关形象雪上加霜。
可以理解公司的紧张。源码泄漏意味着竞争对手可以直接”抄作业”,也意味着商业机密荡然无存。但更深层的问题是:闭源策略在今天的AI行业,还能撑多久?
安全风险:黑客的新猎场
源码公开后,更危险的隐患浮现了。黑客在泄漏的源码中植入了infostealer恶意软件,不知情的开发者下载后,账号密码瞬间被盗。
更离谱的是,Google搜索”Claude plugins”时,置顶广告竟然指向钓鱼网站。AI工具正在成为黑客的新目标,而这次泄漏给攻击者提供了完美的切入点。
这说明什么?AI产品的安全边界正在急速扩大。过去只担心模型安全、数据隐私,现在还要担心源码、插件生态、搜索广告。任何一环被攻破,都可能引发连锁反应。

开源 vs 闭源:一场无休止的战争
这次泄漏把一个老问题重新推到台前:AI到底应该开源还是闭源?
Anthropic、OpenAI、Google都在走闭源路线,理由很充分:模型训练成本高昂,技术细节一旦公开,竞争对手可以低成本复制。美国估计,未经授权的蒸馏每年造成数十亿美元损失。
但开源阵营的声音也很响亮:闭源导致技术垄断,用户数据安全无法保障,创新速度反而受限。这次泄漏后,社区快速推出开源实现,某种程度上证明了”闭源挡不住透明化”的趋势。
更值得注意的是,OpenAI、Anthropic、Google这三家平时竞争激烈的公司,罕见地合作防止模型蒸馏。这说明他们面临的共同威胁,已经超过了彼此间的商业竞争。

对普通用户意味着什么?
你可能会想:这些大公司的技术战争,跟我有什么关系?
关系比你想象的要大。首先,AI工具的安全风险在上升。下载插件、使用第三方工具时,你面对的可能不是正规开发者,而是披着AI外衣的黑客。
其次,行业格局可能重构。如果闭源策略难以为继,AI产品的商业模式将发生根本变化。现在习惯的”免费或低价订阅”可能不复存在,取而代之的是其他变现方式。
最后,技术伦理问题越来越现实。你的数据被用来训练模型了吗?AI生成的代码有没有版权问题?这些问题正在从理论变成每个人的切身利益。
这场事故的真正启示
Claude源码泄漏不是一次简单的技术事故,而是AI行业发展到今天的必然冲突:商业机密 vs 技术透明,企业利益 vs 社区生态,闭源垄断 vs 开源民主。
对于Anthropic,这是一次痛苦的教训。但对于整个行业,这可能是一个转折点。它提醒我们:在AI时代,技术壁垒的保护成本越来越高,而安全风险的增长速度远超预期。
对普通人来说,最重要的一条建议是:保持警惕。AI工具确实强大,但每一个便利背后,都可能隐藏着你没察觉的风险。在点击每一个”安装”按钮之前,多花三秒钟想想——这真的是我想要的东西吗?
夜雨聆风