乐于分享
好东西不私藏

Claude Code源码泄露,普通人能从中学到的4个AI技巧

Claude Code源码泄露,普通人能从中学到的4个AI技巧

1. 极致的 Prompt 模块化与“垫底缓存”策略

源码中暴露了大量类似 getSimpleIntroSection getActionsSection getSimpleToneAndStyleSection 的静态前缀函数。

底层逻辑: 官方没有把提示词写成一篇几千字的长文,而是像拼积木一样,把“系统设定”、“工具说明”、“输出规范”拆分成了独立的静态模块。

指导意义(你怎么用): 开发 Agent 或编写长篇提示词时,必须把内容“动静分离”。把永恒不变的规则(静态模块)放在最前面,把用户当前的问题或变动的上下文(动态模块)放在最后面。这不仅是为了逻辑清晰,更是为了完美契合大模型的 Prompt Caching(提示词缓存) 机制。静态前缀一旦被缓存,你的 API 调用成本和响应延迟都会出现断崖式下降。

2. 剥夺“拟人化”,建立铁血的输出纪律

源码里的规定极其枯燥且严厉:“不要乱用 emoji”、“响应要简洁”、“引用代码位置时必须精确到 file_path:line_number”、“tool call 前不要加冒号”。

底层逻辑: 官方在极力压制大模型想要“像人一样聊天”的本能。大模型越像人,输出的格式就越不可控,下游的系统解析就越容易崩溃。

指导意义(你怎么用): 一个优秀的工业级 Agent,本质上是一台文本处理车间,而不是一个聊天机器人。在编写 System Prompt 时,你必须像制定机器通讯协议一样,规定死它的输出格式。把“请保持礼貌”删掉,换成“严禁输出任何寒暄废话,只返回 JSON 格式结果”。压缩它的输出自由度,是提高系统执行成功率的唯一捷径。

3. 用 Fork 机制隔离“上下文污染”

源码揭示了一个关键机制:当面对“研究任务”或“会产生大量中间输出的实现任务”时,Claude 会触发 Fork。Subagent 会继承主线程的上下文去干脏活累活。

底层逻辑: 复杂的任务如果在同一个对话树(Thread)里死磕,中间那些海量的报错日志、搜索结果和废弃草稿,会迅速撑爆上下文窗口,稀释信息密度,最终导致 AI “失忆”或“变蠢”(注意力坍塌)。

指导意义(你怎么用): 在设计复杂的工作流时,必须引入“开分支(Fork)”或“打草稿”的概念。主 Agent 只负责总调度和记录最终结果。遇到需要疯狂试错的节点(比如爬取大量网页、反复调试 Bug),立刻拉起一个子任务窗口去执行。跑完后,只把“精炼后的结论”返回给主线程,然后直接销毁子任务的庞大上下文。保持主工作区的绝对清洁,才能维持 AI 的高智商。

4. 摒弃“全能神”,走向“专家网络”

源码中明确扒出了多个专职 Agent:Explore Agent(探索)、Plan Agent(计划)、Verification Agent(验证)等。

底层逻辑: 哪怕是强大如 Claude 3.7,Anthropic 也没有指望用一个 Prompt 打天下。让同一个模型实例同时负责宏观规划、资料检索和微观纠错,它一定会顾此失彼。

指导意义(你怎么用): 无论你是写提示词还是开发 Agent,永远不要试图打造一个全能神。必须把复杂的任务强行拆解。先让“计划 Agent”写大纲,再交给“执行 Agent”去干活,最后扔给“验证 Agent”去挑刺。让每个阶段的 AI 都在一个极度狭窄、规则极其明确的“信息房”里工作。多智能体协同(Multi-Agent 工作流)才是解决复杂问题的最终答案。

总结

缓存利用、输出控制、上下文隔离、专家分工——把这四个原则刻进你的使用和开发习惯里。