Claude Code源码泄露51万行!反蒸馏机制、未发布功能全曝光
牛牛的时间缝隙
🔓 Claude Code源码泄露了
51万行代码曝光,AI编程工具军备竞赛的内幕
兄弟们,AI圈刚发生了一件细思极恐的事。
Anthropic的Claude Code——这款AI编程工具,源代码被泄露了。
51万行代码,完整曝光。
// 泄露内容包含:
– 完整功能实现逻辑
– 未发布功能(代号KAIROS、Buddy系统)
–反蒸馏机制(防止竞争对手用Claude Code输出训练自己的模型)
– 内部安全策略
– 模型调用优化算法
先说”反蒸馏机制”是什么
这是这次泄露里最有意思的部分。
“蒸馏”在AI领域是一种常见技术:用大模型生成的输出数据,来训练一个小模型,让小模型学会大模型的能力。这样可以用便宜的方式获得强大的AI能力。
DeepSeek就被指控用过类似方法——用GPT-4的输出数据训练自己的模型。OpenAI很生气,但找不到硬证据。
Anthropic在Claude Code里悄悄加入了反蒸馏保护:当检测到代码输出被大规模、系统性地收集时,系统会自动在输出里注入一些微妙的”水印”或偏差,让用这些数据训练出来的模型出现可追溯的特定偏差。
说白了,就是给输出数据打标记,万一有人偷用,能追查到来源。
这次泄露揭示的几个未发布功能
KAIROS系统:听起来像是一个更智能的任务调度系统,能让Claude Code更好地理解长期任务目标,不是一个任务一个任务地执行,而是理解整体目标后自主规划执行路径。
Buddy系统:从代码片段看,这可能是一个”AI结对编程”功能,让两个AI Agent相互Review代码、互相提问、共同迭代,而不是你提问AI回答的单向模式。
Computer Use自动模式:让Claude Code在无人值守的状态下,自主操作计算机完成开发任务——打开浏览器查资料、运行测试、修复Bug、提交代码,全程不需要人在旁边盯着。
最值得关注的行业信号:
Anthropic内部80%的员工每天都在用Claude Code做实际工作。不是测试,是真实的工作流。
这家公司在用自己开发的AI工具,消化自己的产品,验证产品能力——这是一种非常高效的”自我迭代”机制。
这次事件的启示
不是”源码泄露有多危险”,而是:AI编程工具已经进化到足够复杂的程度,以至于它们需要专门防范竞争对手的”技术窃取”。
OpenAI的Codex、Anthropic的Claude Code、国内的Trae、Cursor——这是一场没有硝烟的军备竞赛。代码是武器,数据是弹药,速度决定胜负。下一代AI编程工具,正在泄露的这51万行代码里,初露端倪。
💬聊聊:
你用过Claude Code吗?觉得它和其他AI编程工具相比怎么样?
“反蒸馏机制”这个事,你怎么看?AI公司之间的技术竞争已经内卷到这一步了。
评论区聊聊,觉得有意思的点个在看🙏
夜雨聆风