Claude Code 源码泄露全复盘:凌晨 4 点爬起来的学生,用 10 个 OpenClaw 重写了一个 Python 版
导读: Business Insider 详细还原了 Claude Code 源码泄露事件的来龙去脉:X 用户 Chaofan Shou 在凌晨发现 51.2 万行源码被意外公开,随后扩散速度极快;25 岁的 UBC 学生 Sigrid Jin 用两个人 + 10 个 OpenClaw + 几小时,将其重写为 Python 版本 Claw Code,在 GitHub 上获得 10.5 万 Star / 9.5 万 Fork。Anthropic 承认是人为失误而非安全漏洞,泄露者未被开除。社区从代码中挖出大量未发布功能细节,竞争对手也在”围观”。
一、泄露是怎么发生的:凌晨 1:23 到全网扩散,只用了几个小时
-
凌晨约 1:23(美东):Chaofan Shou 在 X 上发帖,附了一个包含泄露代码的 zip 链接
-
约一小时后:X 用户 @nichxbt 把代码推到 GitHub,迅速产生数千个 fork
-
周二夜间:Anthropic 提交大规模版权撤除请求,GitHub 一度移除超过 8000 个仓库副本
-
周三上午:Anthropic 缩小撤除范围,只保留对最初那个仓库的请求,被误伤的 fork 恢复访问
但代码早已通过私人 Discord、归档链接、各类镜像站扩散开来。用 Anthropic 自己的话说:这是人为失误,部署流程中有几个手动步骤,其中一个没做对。
Claude Code 创建者 Boris Cherny 本人也确认:不是 AI 自己搞砸的,是人。”这是一个诚实的错误,这种事会发生。” 泄露者没被开除。
二、”Claw Code”是怎么来的:2 个人 + 10 个 OpenClaw + 几小时
Sigrid Jin,25 岁,UBC 学生。他凌晨 4 点被手机炸醒后,和首尔的 Yeachan Heo 一起,用 Python 重写了泄露代码的核心部分,命名为 Claw Code。
-
GitHub 上获得 10.5 万 Star / 9.5 万 Fork
-
5000 人涌入 Jin 的 Discord 服务器(一个韩国开源 LLM 社区)
-
xAI 甚至给他发了 Grok 积分,xAI 的 Umesh Khanna 留言:”非常期待看你继续做!”
Jin 的结论是:这次泄露变成了一次”工作流启示“——它证明了用 AI 重写一个完整工具并切换语言的速度,已经快到令人震惊。
他还说了一句很有冲击力的话:“非技术人员正在用这些工具做真东西——心脏科医生做患者护理 App,律师做许可审批自动化。”
三、代码里藏了什么:编码宠物、脏话图表、24/7 自主代理
社区从 51.2 万行代码里挖出了大量”彩蛋”级内容:
有人截图到对 Opus 4.7、Sonnet 4.8 等未发布模型的引用,以及 “Capybara”、“Tengu” 等内部代号。
一个名为 KAIROS 的 Agent 引用被发现:它被描述为可以 24/7 运行、生成每日日志的”全知队友”——在你想到之前就注意到并处理一切。
Cherny 本人回应称 Anthropic”一直在实验”,90% 的测试不会发布。对于 KAIROS,他说”还在犹豫要不要发”。
有 Reddit 用户发现了一个类似”电子宠物”的功能:一个小生物”坐在你的输入框旁边,对你的代码行为做出反应”。
一组用于加载提示的动词列表,包括 “scurrying”(窜来窜去)、”recombobulating”(重新组合)、”topsy-turvying”(天翻地覆)。有人说:”谢谢 Anthropic 给了我新的最爱动词列表。”
有人发现 Claude 会把用户的脏话记录为 `is_negative` 信号。Cherny 解释说这些信号用于判断用户体验是否良好,并被放在内部仪表盘上——他们管它叫 “fucks chart”。
AI 安全研究员 Gabriel Bernadett-Shapiro(SentinelOne)认为,这次泄露最值得关注的不是”出事了”,而是它罕见地清晰展示了 AI 编码代理的未来方向。
他说:”任何竞争对手都可能会用这些信息来对照:’这是 Anthropic 的做法,和我们的模型匹配吗?'”
尤其是 Agent 记忆机制等设计思路,对其他做 AI 编码工具的团队来说,相当于一份免费的架构参考。
五、”新手级失误”还是”诚实的错误”?行业在争论一个更大的问题
宾大 AI 研究员 Delip Rao 觉得,Anthropic 雇的都是聪明人,这种泄露不像是人会犯的”新手错误”。他推测可能有 AI 代理介入了部署流程——类似亚马逊此前因 AI 编码助手 Q 导致的故障。
Cherny 直接否认了这个推测,坚持说是人为失误、手动步骤没做对。他的解决方案不是”放慢速度”,而是”更多自动化 + 让 Claude 检查结果“。
AI 策略师 David Borish(Trace3)的视角更商业化:他同情 Amodei,因为作为创业者他无法想象这种泄露;但他也指出,”move fast and break things”的节奏下,安全检查和速度很难两全。
六、华子结尾:这次泄露真正改变的,不是 Anthropic 的竞争格局,而是行业对”AI 工具透明度”的预期
泄露本身会被修复,代码会被撤回(虽然已经回不去了)。但这件事留下的真正影响是:
-
开发者社区现在知道了 AI 编码代理内部大致长什么样
-
普通用户开始问一个更底层的问题:这些工具在后台到底在记录什么?
Anthropic 一直以”安全”为品牌核心。这次泄露不会摧毁这个定位,但它确实在说:安全不只是模型层面的事,部署流程、人员操作、代码管理每一环都得跟上。
-
[Business Insider|A 4 a.m. scramble turned Anthropic’s leak into a ‘workflow revelation’](https://www.businessinsider.com/claude-code-leak-what-happened-recreated-python-features-revealed-2026-4)
你对这次泄露里哪个”隐藏功能”最感兴趣——KAIROS 全天候代理、编码宠物、还是那张 “fucks chart”?你觉得 Anthropic 该开源 Claude Code 吗?
星标关注⭐不迷路,这类 AI 行业深度事件我会持续跟进拆解。