乐于分享
好东西不私藏

Anthropic 50万行源码意外泄露,AI安全公司自己翻车了

Anthropic 50万行源码意外泄露,AI安全公司自己翻车了

我是海梦,一个00后退伍海军,每天分享AI信息帮助大家打破信息差。

一个”人为失误”,炸了整个AI圈

▲ 数据来源见文末

3月31日,Anthropic(就是做Claude的那家公司)出了一个大事故。

一次软件更新中,有人不小心把一个内部文件打包进去了。

这个文件指向了一个压缩包,里面装着:

近2000个文件,50万行源代码。

这不是什么边角料,而是Claude Code(Anthropic的AI编程助手)的核心内部架构。

有人在X(推特)上分享了泄露代码的链接,浏览量直接飙到2900万。

然后,有开发者把代码重写了一版传到GitHub,直接成了GitHub历史上下载最快的仓库。

Anthropic的回应是:”这是一个发布打包问题,由人为错误导致,不是安全漏洞。”

但问题是,代码已经传遍了全网。

泄露了什么?

▲ 数据来源见文末

官方说”没有敏感客户数据或凭证”。

但实际上,代码里包含了:

1. Claude Code的完整内部架构

这是Anthropic的核心竞争力。

怎么构建AI编程助手、怎么让AI理解代码、怎么优化性能……全都在里面。

2. AI Agent的设计蓝图

代码里有一个”Tamagotchi式的编程助手”和”永远在线的AI Agent”的设计方案。

这透露了Anthropic未来的产品方向。

3. 商业敏感信息

华尔街日报报道,泄露的代码包含了”工具和指令,用于让AI模型作为编程Agent工作”。

这些是Anthropic的商业秘密。

这是第二次了

▲ 数据来源见文末

更扎心的是,这不是Anthropic第一次泄露。

几周前,他们又出了一次数据泄露。

当时,成千上万的内部文件被存放在公开可访问的系统上。

其中包括一份博客草稿,提到了一个即将发布的模型叫”Mythos”和”Capybara”。

两次泄露,都指向同一个问题:

Anthropic的内部安全防护有漏洞。

讽刺的是,这是一家”AI安全”公司

Anthropic的招牌就是AI安全。

CEO Dario Amodei之前公开表态,拒绝让Claude用于大规模监控和全自动武器。

他还因此和美国国防部杠上了。

一个以”安全”为核心卖点的公司,自己的代码管理都管不好。

这就好比一个卖防盗门的公司,自己家被偷了。

行业专家的评论很犀利:

“这些泄露表明Anthropic内部存在安全漏洞。对于一家专注于AI安全的公司来说,这尤其令人不安。”

Anthropic的补救措施

事发后,Anthropic疯狂发DMCA版权删除通知。

一共发了8000多条删除请求,试图把代码从GitHub上撤下来。

但因为Claude Code本身有公开的代码仓库,删除请求波及了太多无关的仓库。

很多无辜的开发者发现自己的项目被误删了。

一个补救措施,又制造了新的问题。

对行业意味着什么

1. 竞争对手拿到了”答案”

OpenAI、Google现在可以研究Claude Code的内部架构。

以前只能猜,现在直接看源码。

AI公司之间的技术壁垒,正在被打破。

2. AI安全不只是模型安全

大家都在讨论AI模型会不会失控、会不会伤害人类。

但这次事件告诉我们:

AI公司自己的安全管理,可能才是最大的风险。

代码泄露、数据泄露、内部文件公开……

这些”低级错误”造成的危害,可能比AI失控更现实。

3. 用户信任是最大的资产

Anthropic的付费用户今年翻了一倍多。

Claude上个月还登上了美国App Store免费榜第一。

但信任是脆弱的。

一次泄露可以原谅,两次泄露就会让人怀疑:

我的数据在你那里,真的安全吗?

写在最后

Anthropic这次翻车,给所有AI公司敲了一个警钟:

做AI安全,先把自己的安全做好。

50万行代码,2000个文件,因为一个”人为失误”就全部泄露。

这不是技术问题,是管理问题。

而管理问题,往往比技术问题更难解决。

对于我们普通用户来说,这件事的启示很简单:

不要盲目信任任何AI公司。

你的数据、你的对话、你的代码……在AI公司的服务器上,安全性取决于他们的内部管理水平。

而这个水平,可能没有你想象的那么高。

想了解更多AI行业内幕和工具推荐?

💻

加我微信:

gzhmxai

,备注”AI工具”

我会把最新的AI资讯、工具测评、行业分析,第一时间分享给你。

不是让你焦虑,而是让你看清真相。