乐于分享
好东西不私藏

51万行代码泄露!Claude Code源码里,藏着AI产品经理的“天机”

51万行代码泄露!Claude Code源码里,藏着AI产品经理的“天机”

你以为这是技术事故,其实这是一本价值数十亿美元的AI产品设计教科书,被Anthropic不小心扔到了大街上。

2026年3月31日,AI圈发生了一件“史诗级”泄露事件——Anthropic在发布Claude Code的npm包时,意外把完整源码打包了进去

51万行TypeScript代码、1884个文件、33MB的工程细节,一夜之间暴露在全世界面前。

科技媒体都在报道“安全事故”、“尴尬时刻”,但真正懂行的人知道:这不是丑闻,这是一次公开课

Anthropic花了数年时间、数十亿美元,把自己对AI产品设计的理解,压缩进了这51万行代码里。现在,它意外公开了。

别人看到的是八卦,产品经理应该看到的是样本。


一、颠覆认知:AI不是功能,是执行引擎

传统产品思维:AI是一个功能模块,用户点按钮,AI干活。

Claude Code的思维:AI是整个产品的执行引擎

与AI模型交互的核心代码只有约6400行,占总量1.2%。剩下50万行全部是让AI安全、准确、高效工作的基础设施。

五层架构中,核心是Agentic Loop——AI在循环里持续运行:接收指令→构建上下文→选择工具→权限检查→执行→看结果→决定下一步→继续。

传统产品是“用户点按钮触发功能”,Claude Code是“用户说意图,AI自己规划和执行”

这不仅仅是技术架构的差异,这是产品哲学的根本转变

二、分工的艺术:AI做什么,工具做什么?

这是Claude Code最能体现AI Native思维的设计原则。

当AI需要搜索代码时,不让模型自己去“想”结果在哪里,而是调用内置的搜索工具去精确搜索

文件查找、文件读取、内容搜索——都有专门的确定性工具,输入确定、输出确定,不需要AI的概率推理。

背后的产品判断:AI的价值不在于“能做所有事”,而在于“知道该做什么以及谁来做”

AI擅长理解意图、选择工具、编排顺序、处理异常。精确搜索、确定性匹配、文件操作,交给专门工具更可靠。

如果你在做AI产品:不要让AI做所有事,让AI做AI最擅长的事

三、感知革命:AI怎么“看见”你的工作环境?

为什么同一个Claude模型,在普通对话框和在Claude Code里表现判若两人?

想象一个场景:你说“帮我把这个函数优化一下,然后提个PR”。在你敲下回车的瞬间,AI已经知道:

  • 你在哪个分支
  • 主分支是什么
  • 有哪些未提交修改
  • 最近提交是什么
  • 项目用什么技术栈
  • 团队的编码规范
  • 自己当前的权限范围
  • 你上次说过偏好TypeScript

你什么都没交代,AI全知道了

对比普通聊天——每次都要说“我在用React,项目在feature-xxx分支…”。

这个差距来自六层动态上下文系统:系统上下文→用户上下文→工具行为手册→权限上下文→记忆系统→沙箱配置。

全部动态生成。不存在固定System Prompt

四、安全哲学:假设AI一定会犯错

AI是概率系统,它一定会犯错。Claude Code的安全设计不是试图让AI不犯错,而是假设AI一定会犯错,然后层层兜底

传统产品主要防外部攻击者。AI产品还要防AI自身的不可预测性——幻觉、理解偏差、被恶意Prompt误导。

Claude Code的做法是设六道关卡,每一道都假设前一道会失败:

  1. 先告诉AI规矩
    ——系统指令中明确写清行为边界
  2. 规则硬匹配
    ——24个权限文件定义白名单和黑名单
  3. 另一个AI来审核
    ——用独立的AI模型实时审核主AI的每个动作
  4. 代码级硬检查
    ——2593行安全代码,用模式匹配检测攻击手法
  5. 操作系统级隔离
    ——沙箱限制AI能访问的文件和网络范围
  6. 熔断
    ——AI连续被拦3次或累计20次,自动降级到手动确认

除了六层防御,还有六种权限模式:日常模式、信任编辑模式、只看不做模式、自动模式、CI/CD模式、完全放开模式。

而且有动态降级——系统会根据AI的实际表现自动调整。

五、Prompt工程:370行的“AI员工手册”

传统产品里产品经理写PRD给工程师。AI Native产品里,Prompt就是写给AI的PRD

Claude Code里最复杂的一份是BashTool的,370行——工具偏好、工作细则、安全红线、工作流程、沙箱边界,像一本完整的岗位说明书。

这份手册不是固定的。不同用户看到不同版本——内部员工有保密条款,外部用户有不同规则。不同场景也不一样。

手册管理还直接影响成本。AI每次工作前要读一遍手册,内容没变就能复用缓存,变了就得全部重新处理。

Anthropic发现了两个导致缓存大面积失效的问题,优化后省了全站10%+的API成本

如果你的AI产品有Prompt:把它当正式工作手册管理——要有版本控制、要分场景定制、要关注改动的成本影响

六、多代理协作:

Never delegate understanding

Claude Code不是单一AI,而是有明确主从关系的多代理系统——主代理负责理解和决策,子代理负责执行。

五种子代理各有专精:Explore、General Purpose、Plan、Verification、Guide。

三个关键设计:

  1. 成本差异化
    ——搜索用最便宜的Haiku,推理用更强的默认模型
  2. Fork机制
    ——Fork继承上下文+共享缓存,比独立启动快且省
  3. Never delegate understanding
    ——全文最重要的一条设计纪律

源码要求主代理在给子代理派任务时,不能说“基于你的发现,修这个bug”——这句话把“理解”的责任推给了子代理。

正确做法:主代理自己消化信息,用具体文件路径、行号、分析结论指导下一步。源码原话:“Write prompts that prove you understood.

这是管理哲学。最差的管理者就是“委托理解”的人——把模糊任务甩给下属。好的管理者先想清楚,再给具体指令。AI代理编排完全一样

七、彩蛋时间:那些让你惊呼“还能这样?”的设计

源码里有几个发现超出了常规产品设计的范畴:

BUDDY电子宠物——完整的Tamagotchi系统,18种宠物、5个稀有度、gacha抽卡、使用频率驱动成长。一个严肃编程工具里藏了抽卡养成系统。

背后的产品探索:当你每天和AI高强度协作12小时,和一个有“性格”的AI协作,会不会比冷冰冰的命令行更有动力?AI工具的情感化设计,可能是被低估的方向

卧底模式——内部员工向开源贡献代码时自动隐藏AI痕迹,90行代码。

边界模糊:用AI写初稿再人工修改提交,算人写的还是AI写的?但它揭示了一个全新维度——AI产品还有“社会设计”:AI以什么身份在人类社会中行动。

反蒸馏保护——Claude Code在调用API时,会在请求中注入假的工具定义。这不是防黑客,是防蒸馏。

AutoDream——AI也需要“睡觉”。Claude Code有一个叫AutoDream的后台机制——灵感来自人类的REM睡眠。

AI在日常工作中会不断往记忆文件里写入笔记,时间久了记忆会变得臃肿。AutoDream会在后台定期启动一个子代理,自动回顾、清理、合并、整理这些记忆。

醒来之后,记忆文件更干净、更有序、检索效率更高

八、真正的护城河:不是模型,是工程

读完51万行源码,最深的感受是:

好的AI产品设计,本质上是在做一件事——想清楚AI能做什么、不能做什么、做错了怎么办

Claude Code的答案不是一个天才想法,而是无数个具体的设计决策:

  • 搜索交给工具而不是模型
  • 安全做六层而不是一层
  • 权限分六档而不是两档
  • Prompt写370行而不是一段话
  • 代理分五种而不是一种
  • 甚至连一个临时目录路径都要替换成变量来优化缓存命中率

这些决策单独看都不惊艳。但叠在一起,构成了一个其他人短期内很难复制的