乐于分享
好东西不私藏

从Claude Code源码泄露事件,我看到了一个优秀工程系统的样子

从Claude Code源码泄露事件,我看到了一个优秀工程系统的样子

51万行代码,7个小时被扒光。但比起泄露本身,更值得关注的是扒出来的东西。

Claude Code的源码里有什么?8大隐藏功能、26个未公开指令、6级安全架构,还有一个愚人节彩蛋——电子宠物系统。

作为AI工程从业者,我更关心的是:这套代码的架构设计,有哪些是我们在做自己的AI工作流时可以直接借鉴的?


01 6级安全架构:每一次工具调用都经历了什么

Claude Code最让我意外的不是功能,而是它的安全设计。

每次执行Shell命令或读写文件,都要经过:

  • 权限验证(用户是否授权这个操作)
  • 上下文检查(当前会话状态是否允许这个操作)
  • 风险评估(这个操作可能带来什么副作用)
  • 执行分析(如果执行了,对话状态会如何变化)
  • 缓冲区隔离(IO在独立缓冲区处理,不阻塞主流程)
  • 最终确认(所有检查通过后才真正执行)

然后,所有外部命令和插件都在独立沙箱环境中运行。

这给我们的启发是:AI Agent的”安全”不是加一个确认对话框就能解决的,而是需要从架构层面设计多层防御。

一个常见的误区是:让AI直接执行命令,只在关键节点加一个人工审核。但Claude Code的做法是:把安全检查做成一个独立于主流程的验证管道,每次工具调用都会触发,不需要人工介入。

如果你在做类似的AI编程助手或Agent系统,这套6级架构值得参考。


02 长期记忆助手:跨会话信息整合的工程方案

Claude Code里藏了一个代号”Kairos”的持久化助手模式。

核心机制是四阶段记忆整合:

  • 定向:识别当前会话中的关键信息点
  • 收集:把零散的上下文整理出来
  • 整合:与历史记忆融合,更新结构化知识
  • 修剪:删除不再相关的信息,防止记忆膨胀

这解决的是一个很实际的问题:当你让AI帮你处理一个跨多天的项目时,每次新会话它都像在认识一个新项目。

这个四阶段架构在工程上可以直接迁移:

  • 定向 = 在会话结束时做一次”信息提取”
  • 收集 = 把提取的信息归类到已有的知识框架
  • 整合 = 用Embedding相似度找到最相关的历史节点,更新或追加
  • 修剪 = 基于时间衰减或使用频率,淘汰低价值记忆

这不是一个Prompt技巧,而是需要一套持久化存储 + 定期整合机制的工程系统。


03 多Agent协作:不是一个Agent干到底

代码里还发现了多Agent协调模式的痕迹:支持同时启动多个独立Agent实例分工协作,处理并行任务效率提升3倍以上。

还有一个有意思的设计:跨会话进程通信——如果机器上运行多个Claude会话,它们可以互相发送消息。

这解决的是”一个Agent能力有上限,但多个Agent协作可以突破上限”的问题。

在做复杂任务时,单一Agent经常遇到:

  • Context窗口不够用
  • 单一模型的强项和弱项固定,无法动态调配
  • 任务的不同阶段需要不同的专业能力

多Agent协作的核心工程问题不是”怎么让多个Agent对话”,而是:

  • 任务怎么拆分(拆早了没有协同收益,拆晚了增加通信开销)
  • 结果怎么汇总(不是简单拼凑,而是真正整合成完整输出)
  • 冲突怎么解决(多个Agent可能给出不一致的建议)

Claude Code的代码泄露给了我们一个信号:大厂已经在往这个方向走了,而且已经有工程落地的实现。对于我们在做自己工作流的团队来说,多Agent协作不是一个”以后可能会有”的东西,而是需要现在就开始设计的东西。


04 把”屎山”也一起学了:工程质量的反面教材

但是!代码里也有反面教材。

翻到src/cli/print.ts这个文件时,社区发现:

  • 一个函数,3000多行
  • 12层嵌套
  • 圈复杂度爆表

以及,Claude Code检测用户负面情绪的方式——不是用AI模型做情感分析,而是用正则表达式匹配”ffs”、”shitty”这类词。

这两件事放在一起说明:即使是做出了优秀架构设计的团队,也会在局部模块上写出质量堪忧的代码。

这不是嘲讽,而是提醒我们:

05 把成功经验固化成Skills:Claude Code的隐藏功能给我的最大启发

回到文章开头提到的那个问题:愚人节彩蛋”电子宠物”Buddy,4月1日上线,4月1日关闭。

一个计划被写进代码、完整实现、然后以上线为终点的时间盒功能——这背后是一种产品节奏:快速验证、快速学习、快速迭代。

对于我们做AI工作流的人来说,真正有价值的不是去复刻Claude Code的功能,而是学习它的方法论:

把每次验证成功的AI工作流,固化成可复用的Skills。

Skills是什么?是:

  • 触发条件的定义(什么情况下用这个流程)
  • 输入输出的规范(怎么组织数据格式)
  • Prompt模板(核心指令的固定写法)
  • 错误处理机制(出问题了怎么回退或重试)
  • 效果评估标准(怎么判断这次执行成功了)

当这套Skills体系建立起来之后,每一次新的项目验证就不再是”从零开始”,而是”组合已有的Skills + 少量新开发”。

Claude Code这次的源码泄露,让我们看到了一个成熟AI产品的工程架构是什么样的。6级安全、长期记忆、多Agent协作、分层规划——这些不是实验室里的论文概念,而是已经工程化落地的真实系统。

我们不一定要做出同等规模的东西,但这些架构思路和工程方法,是可以直接迁移到自己的AI工作流里的。


FAQ

Q:Claude Code的安全架构普通团队能复制吗?

A:完整复制的门槛确实不低,涉及到沙箱隔离、进程级通信、权限验证管道等系统层面的工作。但核心思路——”把安全检查做成独立验证管道而非人工介入”——是可以用更轻量的方式落地的,比如在每次工具调用前统一加一层检查函数。

Q:多Agent协作听起来很复杂,团队应该什么时候开始考虑引入?

A:建议在单一Agent已经无法满足需求时再考虑,具体信号包括:任务需要多个不同领域的专业知识、context窗口频繁溢出、或者单一任务的多个子问题可以并行处理。引入多Agent会增加架构复杂度,在需求不明确时过早优化是常见的工程陷阱。

Q:Skills体系和Prompt模板有什么区别?

A:Prompt模板是Skills的核心组成部分,但不是全部。Skills还包含触发条件、数据格式规范、错误处理、效果评估等完整的工作流要素。可以理解为:Skills = Prompt + 执行规范 + 质量门禁,是一个完整的可复用单元。


关于Claude Code的分析,我们内部还整理了一份更完整的架构拆解文档,包含隐藏功能清单和工程亮点逐条解读。

如果你在做AI工作流设计、Agent系统开发,或者在研究怎么把AI工程能力变成可复用的方法论,欢迎关注「励智图强」。

我们不做追热点的资讯号,每一篇文章都争取做到:给你一个可以马上用起来的工程思路。