《Claude 源码泄露后,为什么最先失望的,反而会是那些最兴奋的人》

很多人看到源码泄露,第一反应是:“终于能复刻 Claude Code 了。”
但现实是,绝大部分人高兴得太早。
Claude Code 真正强的地方,从来不是那几千个源码文件,而是源码背后那套长期演化出来的系统能力。
先说最核心的一点:没有模型权重,就没有同级能力。
即使你拿到了 CLI、Agent 调度、Prompt 模板、Hook、权限系统、上下文压缩、文件操作策略,你拿不到真正驱动这些能力的模型本身。
Claude Code 背后依赖的是 Anthropic 自己训练的大模型,以及它在代码任务上的强化学习、长上下文能力、工具使用能力、代码补全偏好、错误恢复能力。
这些能力并不在源码里,而在模型参数里。
可以这样理解:
源码更像是一辆赛车的底盘、方向盘和仪表盘。
真正决定这辆车能不能跑出 F1 水平的,是发动机、变速箱、空气动力学和车手。
你拿到了外壳,不等于拿到了性能。
第二,很多人低估了 Prompt 体系背后的积累。
很多人看到 Claude 的 system prompt、agent prompt、tool prompt,会觉得“原来就是这样写的”。
但问题在于,Prompt 不是写出来的,而是试出来的。
一条看起来普通的规则,背后可能是几千次线上事故、几百次失败案例、无数次回滚后才形成的。
比如为什么某些命令必须二次确认?
为什么有些危险操作需要自动降级?
为什么一个工具失败后要换另一个工具?
为什么需要压缩上下文,而不是一直堆历史记录?
这些都不是“聪明人一拍脑袋”想出来的,而是产品被用户打磨出来的。
第三,很多人忽略了数据闭环的重要性。
Claude Code 最值钱的不是“今天写了什么代码”,而是它知道过去几百万次用户请求里,哪些回答有效,哪些失败,哪些 Prompt 更容易触发错误,哪些 Agent 路径更稳定。
这种反馈闭环,普通团队根本没有。
顶级 AI 产品真正厉害的地方,不是第一次回答得有多聪明,而是它们能持续修正错误。
你以为是一个 Prompt 很强,实际上是背后有海量日志、评测、回放、A/B 测试、用户行为数据在支撑。
第四,工程复杂度比大多数人想象得高得多。
一个成熟的 Coding Agent,不只是“让模型会写代码”这么简单。
它还要解决:
-
文件读写权限怎么限制 -
Shell 命令怎么隔离 -
哪些目录允许访问 -
Git 操作怎么回滚 -
多步骤任务怎么拆分 -
Token 爆了怎么办 -
工具调用失败怎么办 -
网络权限怎么控制 -
长任务中断后怎么恢复 -
用户中途修改需求怎么办
很多人看源码的时候,只会看到“这里有一个函数调用”,但看不到背后整个异常恢复链路和容灾设计。
第五,即使完全复刻代码,也不代表能得到同样的体验。
因为 Claude Code 的真正优势,很可能还包括:
-
内部专用模型版本 -
更强的上下文窗口 -
更高质量的工具调用微调 -
专门针对编程场景优化的推理策略 -
更高的 API 配额和速度 -
更稳定的推理基础设施 -
更成熟的缓存与记忆机制
这些很多都不在公开源码里。
所以,泄露的价值,更接近“让人知道顶级 AI 产品是怎么搭起来的”,而不是“让人直接复制出同等级产品”。
但这件事仍然很有价值,尤其对以下几类人:
-
做 AI Agent 的团队
可以学习任务拆解、工具调度、权限设计、Prompt 分层、状态管理。 -
做 Coding Agent 的创业者
可以看到一个成熟产品在文件系统、终端命令、Git、上下文压缩上的真实工程实践。 -
做 AI 基础设施的人
可以学习长任务执行、日志、Hook、沙箱、异常恢复、审批流这些细节。 -
做 Prompt Engineering 的人
可以真正理解 Prompt 不是一句“你是一个有帮助的助手”,而是一个复杂的行为约束系统。 -
普通开发者
会更清楚 AI 产品不是“神秘黑盒”,而是一整套模型、工程、产品、数据共同构成的体系。
真正聪明的人,不会因为看到源码就幻想“我也能做 Claude”。
而是会去研究:为什么它这样设计、哪些地方值得借鉴、哪些能力自己暂时还不具备。
这是看热闹和看门道的区别。
夜雨聆风