乐于分享
好东西不私藏

从Claude源码泄露看AI公司的内功修炼

从Claude源码泄露看AI公司的内功修炼

从Claude源码泄露看AI公司的”内功”修炼

说实话,看到这条新闻的时候,我第一反应是:不是吧?

51万行代码,1900多个文件,40多个工具模块,20多项未发布功能——就因为一个打包配置错误,全泄露了。

而且不是黑客攻破的,是自己人手滑。

Anthropic,这家估值数百亿美元的AI巨头,Claude的母公司,在过去一周给我们上了一课:技术再强,底子不牢,照样翻车。

这次泄露的不是Claude大模型的核心权重,而是Claude Code这个AI编程工具的完整源码。虽然不涉及用户数据和核心算法,但内部架构、系统提示词设计、工具调用机制,甚至还没发布的新功能,全都”裸奔”了。

最讽刺的是,泄露的代码里有一个叫”卧底模式”的功能——专门用来防止员工在公开仓库泄露内部信息。

结果这个防泄露功能本身的代码,先泄露了。

我们来看看这次泄露到底是怎么发生的。

简单说,就是发布npm包的时候,没把调试文件(source map)删掉。

这个source map文件有57MB,里面包含了完整的源码映射信息。开发者只要写个简单脚本,就能把1900多个TypeScript源文件还原出来。

而造成这个问题的原因,说出来你可能不信:

– `.npmignore`配置缺失,没有排除`*.map`文件

– CI/CD流程里没有包内容审查机制

– 发布前没有人复核打包内容

更离谱的是,这已经是Anthropic在13个月内第二次犯同样的错误。

去年他们就有过一次类似的npm包泄露事件,只不过当时规模小,没引起太大关注。

同样的坑踩两次,这不是技术问题,是流程问题。

一个市值数百亿的公司,发布流程居然这么”草率”,连基础的自动化检查都没有,这确实让人意外。

但细想一下,其实也不难理解。

AI行业这两年跑得太快了。

人才抢、市场抢、融资抢,所有人都在狂奔。很多AI公司的技术团队只有几十人、上百人,却要支撑千万级用户的产品。

这种情况下,什么容易被牺牲?

工程化能力。安全基建。流程规范。

这些不直接产生价值,却决定了一个公司能走多远的东西。

说到这,我想聊聊一个概念:AI公司的”内功”

如果把AI能力比作武功招式,那工程化、安全、流程这些就是内功。

招式华丽,可以让你在台上赢得喝彩;内功深厚,才能让你在江湖上活下来。

那AI公司的内功包括哪些?

第一,工程化能力。

CI/CD流程是否完善?测试覆盖率有多少?发布审核机制是什么样的?

这些问题听起来很”传统”,但对AI公司来说同样致命。

因为AI产品也是软件产品,同样要发布、要迭代、要维护。传统软件公司踩过的坑,AI公司一个都不会少,反而可能更复杂——因为你还要处理模型版本、数据管道、GPU资源调度这些问题。

第二,安全基建。

代码审计怎么做?权限管理怎么设计?敏感信息如何管控?

这次Anthropic的泄露事件,暴露的就是安全意识的薄弱。

一个实习生(或者初级工程师)能直接发布包含完整源码的npm包,中间没有任何审核流程,这本身就是安全管理的漏洞。

第三,团队流程。

谁负责发布?谁负责复核?出了问题谁来扛?

这些问题听起来很琐碎,但关键时刻能救命。

如果Anthropic有一个简单的发布复核流程,这次泄露完全可以避免。

第四,技术债管理。

快速迭代留下的隐患,有没有时间清理?

AI行业普遍”快”,但快是有代价的。

匆匆上线的产品,可能埋着一堆安全漏洞;快速堆叠的功能,可能欠着技术债务。

这些问题平时不明显,一旦暴露,就是大新闻。

这次事件,让我想起几年前的一些类似案例。

某互联网大厂,因为一个配置文件泄露,导致核心算法被竞争对手”借鉴”。

某创业公司,因为员工离职时没做好权限回收,代码被批量下载带走。

这些事情的共同点是:都不是技术难题,都是流程漏洞。

而AI公司,因为行业特殊,更容易出现这类问题。

一方面,AI公司普遍”年轻”,很多公司成立才几年,流程沉淀不够。

另一方面,AI行业人才流动频繁,核心团队可能来自不同背景,工作习惯不统一,协作成本高。

再加上融资压力、市场竞争,很多公司把精力都放在”跑得快”上,顾不上”跑得稳”。

但问题是,跑得快是本事,跑得稳是功底。

这次Anthropic的事件,恰好证明了这一点。

作为AI领域的头部公司,技术实力毋庸置疑;但在工程化、安全这些”基本功”上,却暴露了短板。

这不是Anthropic一家的问题,而是整个AI行业需要反思的。

最后,说几点想法。

对AI公司:

别只盯着模型参数、算法优化,基建能力同样重要。

CI/CD、测试覆盖、发布审核、权限管理——这些看起来”不性感”的东西,关键时刻能救命。

尤其是当你的产品用户量越来越大,影响越来越大的时候,任何一次事故都可能演变成信任危机。

对开发者:

用AI工具写代码,确实效率高;但别忘了自己审核。

AI生成的代码,可能藏着安全漏洞;AI帮你打包发布,可能漏掉敏感文件。

工具越来越强,但责任还在你身上。

对行业:

这次事件是个警钟。

希望AI公司在追求技术突破的同时,也能花点时间”练练内功”。

毕竟,武功再高,也怕菜刀;内功深厚,才能走得更远。


后记

写这篇文章的时候,我特意去翻了翻泄露的代码。

说实话,挺精彩的。

工具调用设计、多Agent协调架构、系统提示词的写法……都能看到Anthropic团队的技术功力。

但也正因为如此,才更让人惋惜。

一个优秀的作品,不该以这种方式”开源”。

希望这次事件能给行业一个教训,也给Anthropic一个改进的机会。

毕竟,内功练好了,才不会在关键时刻露出软肋。