从Claude源码泄露看AI公司的内功修炼
从Claude源码泄露看AI公司的”内功”修炼
一
说实话,看到这条新闻的时候,我第一反应是:不是吧?
51万行代码,1900多个文件,40多个工具模块,20多项未发布功能——就因为一个打包配置错误,全泄露了。
而且不是黑客攻破的,是自己人手滑。
Anthropic,这家估值数百亿美元的AI巨头,Claude的母公司,在过去一周给我们上了一课:技术再强,底子不牢,照样翻车。
这次泄露的不是Claude大模型的核心权重,而是Claude Code这个AI编程工具的完整源码。虽然不涉及用户数据和核心算法,但内部架构、系统提示词设计、工具调用机制,甚至还没发布的新功能,全都”裸奔”了。
最讽刺的是,泄露的代码里有一个叫”卧底模式”的功能——专门用来防止员工在公开仓库泄露内部信息。
结果这个防泄露功能本身的代码,先泄露了。
二
我们来看看这次泄露到底是怎么发生的。
简单说,就是发布npm包的时候,没把调试文件(source map)删掉。
这个source map文件有57MB,里面包含了完整的源码映射信息。开发者只要写个简单脚本,就能把1900多个TypeScript源文件还原出来。
而造成这个问题的原因,说出来你可能不信:
– `.npmignore`配置缺失,没有排除`*.map`文件
– CI/CD流程里没有包内容审查机制
– 发布前没有人复核打包内容
更离谱的是,这已经是Anthropic在13个月内第二次犯同样的错误。
去年他们就有过一次类似的npm包泄露事件,只不过当时规模小,没引起太大关注。
同样的坑踩两次,这不是技术问题,是流程问题。
一个市值数百亿的公司,发布流程居然这么”草率”,连基础的自动化检查都没有,这确实让人意外。
但细想一下,其实也不难理解。
AI行业这两年跑得太快了。
人才抢、市场抢、融资抢,所有人都在狂奔。很多AI公司的技术团队只有几十人、上百人,却要支撑千万级用户的产品。
这种情况下,什么容易被牺牲?
工程化能力。安全基建。流程规范。
这些不直接产生价值,却决定了一个公司能走多远的东西。
三
说到这,我想聊聊一个概念:AI公司的”内功”。
如果把AI能力比作武功招式,那工程化、安全、流程这些就是内功。
招式华丽,可以让你在台上赢得喝彩;内功深厚,才能让你在江湖上活下来。
那AI公司的内功包括哪些?
第一,工程化能力。
CI/CD流程是否完善?测试覆盖率有多少?发布审核机制是什么样的?
这些问题听起来很”传统”,但对AI公司来说同样致命。
因为AI产品也是软件产品,同样要发布、要迭代、要维护。传统软件公司踩过的坑,AI公司一个都不会少,反而可能更复杂——因为你还要处理模型版本、数据管道、GPU资源调度这些问题。
第二,安全基建。
代码审计怎么做?权限管理怎么设计?敏感信息如何管控?
这次Anthropic的泄露事件,暴露的就是安全意识的薄弱。
一个实习生(或者初级工程师)能直接发布包含完整源码的npm包,中间没有任何审核流程,这本身就是安全管理的漏洞。
第三,团队流程。
谁负责发布?谁负责复核?出了问题谁来扛?
这些问题听起来很琐碎,但关键时刻能救命。
如果Anthropic有一个简单的发布复核流程,这次泄露完全可以避免。
第四,技术债管理。
快速迭代留下的隐患,有没有时间清理?
AI行业普遍”快”,但快是有代价的。
匆匆上线的产品,可能埋着一堆安全漏洞;快速堆叠的功能,可能欠着技术债务。
这些问题平时不明显,一旦暴露,就是大新闻。
四
这次事件,让我想起几年前的一些类似案例。
某互联网大厂,因为一个配置文件泄露,导致核心算法被竞争对手”借鉴”。
某创业公司,因为员工离职时没做好权限回收,代码被批量下载带走。
这些事情的共同点是:都不是技术难题,都是流程漏洞。
而AI公司,因为行业特殊,更容易出现这类问题。
一方面,AI公司普遍”年轻”,很多公司成立才几年,流程沉淀不够。
另一方面,AI行业人才流动频繁,核心团队可能来自不同背景,工作习惯不统一,协作成本高。
再加上融资压力、市场竞争,很多公司把精力都放在”跑得快”上,顾不上”跑得稳”。
但问题是,跑得快是本事,跑得稳是功底。
这次Anthropic的事件,恰好证明了这一点。
作为AI领域的头部公司,技术实力毋庸置疑;但在工程化、安全这些”基本功”上,却暴露了短板。
这不是Anthropic一家的问题,而是整个AI行业需要反思的。
五
最后,说几点想法。
对AI公司:
别只盯着模型参数、算法优化,基建能力同样重要。
CI/CD、测试覆盖、发布审核、权限管理——这些看起来”不性感”的东西,关键时刻能救命。
尤其是当你的产品用户量越来越大,影响越来越大的时候,任何一次事故都可能演变成信任危机。
对开发者:
用AI工具写代码,确实效率高;但别忘了自己审核。
AI生成的代码,可能藏着安全漏洞;AI帮你打包发布,可能漏掉敏感文件。
工具越来越强,但责任还在你身上。
对行业:
这次事件是个警钟。
希望AI公司在追求技术突破的同时,也能花点时间”练练内功”。
毕竟,武功再高,也怕菜刀;内功深厚,才能走得更远。
后记
写这篇文章的时候,我特意去翻了翻泄露的代码。
说实话,挺精彩的。
工具调用设计、多Agent协调架构、系统提示词的写法……都能看到Anthropic团队的技术功力。
但也正因为如此,才更让人惋惜。
一个优秀的作品,不该以这种方式”开源”。
希望这次事件能给行业一个教训,也给Anthropic一个改进的机会。
毕竟,内功练好了,才不会在关键时刻露出软肋。
夜雨聆风