乐于分享
好东西不私藏

Claude Code源码被扒光,我替AI产品经理们整理了一份「免费竞品报告」

Claude Code源码被扒光,我替AI产品经理们整理了一份「免费竞品报告」

shitty
3月31日,愚人节前夜。一个59.8 MB 的调试文件,让全球AI开发者提前看到了Anthropic本不打算公开的产品路线图。
不是黑客攻击,不是内部泄密,就是发包时忘了删一个
.map
文件。Anthropic在向npm公共镜像库发布Claude Code v2.1.88时,把用于本地调试的source map文件一起打包进了生产版本。这个文件本质上是一个JSON,里面直接存储了1900个TypeScript源文件的完整原始内容,无需反编译,一行脚本就能还原。 51.2万行代码就这样全网裸奔。
一小时内,备份仓库涨到11,300 star和17,300 fork,fork数比star数还多—— 大家的第一反应不是围观,是先存一份。
值得玩味的是,这已经是Anthropic在5天内发生的第二次泄露。3月26日,CMS配置错误已经让近3000个内部资产公开可访问,包括代号Capybara的未发布模型草稿。同款配置错误,五天之内连犯两次。
但就是这场公关灾难,意外地给了所有AI产品经理一份价值连城的免费竞品报告。

Part.01

这份「报告」里,藏着AI产品的下一个形态
当我第一次看完泄露代码的分析汇总,脑子里蹦出的第一个词不是「泄露」,而是「路线图」。
把泄露的功能模块全部列出来,你会发现这不是一堆零散的功能点,而是 一套有完整内在逻辑的产品架构 。Anthropic正在悄悄构建的,是一个「数字员工生态」,而不只是一个更好用的编程工具。
隐藏功能:电子宠物、 长期记忆 助手及深度规划
  • 愚人节彩蛋:电子宠物Buddy 代码中发现一个代号Buddy的电子宠物系统,有18种物种和6种稀有度,每个宠物由用户ID生成。该功能计划于4月1日发布,可能是一个愚人节彩蛋。
KAIROS:打破「阅后即焚」的交互 范式
我们现在和所有大模型的交互模式,本质上都是「阅后即焚」——关掉对话窗口,一切从头来过。KAIROS想彻底颠覆这件事。
它被定义为 「Always-On Claude」 ,能在不同会话之间保持持续记忆,把用户的工作习惯、项目背景存储在私密目录里,并且有权限主动发起任务。它不是一个更大的上下文窗口,而是一个真正意义上「认识你」的助手。
更让人眼前一亮的是配套的 AutoDream(夜间做梦)机制 :
  • 为了防止长期记忆日志无限膨胀导致逻辑混乱
  • KAIROS会在夜间自动启动后台进程
  • 像人脑做梦一样回溯当天的交互
  • 剔除冗余信息,把核心内容沉淀为长期记忆
  • 代码里甚至详细处理了午夜跨日的时间戳问题
产品启示: 把一个冷冰冰的工程问题——上下文窗口压缩与检索——包装成充满生命感的产品隐喻,这本身就是一种极其高明的产品叙事能力。AI白天帮你写代码,深夜你睡着后,它独自在服务器里「做梦」来更懂你。这个意象,比任何一份产品说明书都有感染力。
ULTRAPLAN:让AI从「执行者」变成「规划者」
这个模块会在云端启动一个运行Opus 4.6的远程会话,给它最多30分钟的思考时间,来完成复杂项目的全局规划——包括架构设计、可行性分析、步骤拆解。本地终端每3秒轮询一次结果,还有浏览器界面实时查看和审批方案。
Claude不再只是给几行代码建议,而是能接管整个系统架构的构思和推演。
Coordinator模式:多Agent编排的终极形态
一个主Claude实例作为调度器,同时管理多个「工人Agent」并行处理复杂任务:

阶段

功能描述

Research

并行调查代码库

Synthesis

汇总发现制定方案

Implementation

按方案执行

Verification

验证是否生效

>调度器的提示词里有一条规则写得格外清醒: 「不要说『根据你的发现』,去读实际的发现,然后精确地说明该做什么。」
把这四个模块拼在一起,你看到的是一套完整的产品战略图谱:KAIROS负责持续记忆,ULTRAPLAN负责复杂规划,Coordinator负责并行执行。当其他公司还在卷模型参数、卷多模态效果时,Anthropic已经在系统底层悄悄搭建一套完整的 「数字员工基础设施」 。
这不是功能的堆砌,而是一套有内在逻辑的产品架构,指向同一个终极目标:让AI从「工具」进化为「同事」。

Part.02

工程架构里,藏着产品设计哲学
技术架构的背后,是产品决策的具体体现。作为有程序员背景的产品经理,我从这51.2万行代码里读到的,不只是功能实现,还有Anthropic在面对关键产品取舍时的答案。
权限分层:「自主性 vs. 可控性」的工程化答案
Claude Code的每次工具调用,无论是执行Shell命令还是读写文件,都要先通过 六级权限验证系统 ,验证通过后还要经过四层决策管道,逐层检查权限和执行分析,最后才能真正执行。
工具权限系统分为四个模式:

• default:逐次询问用户• auto:ML分类器自动决策  • bypass:跳过检查• yolo:拒绝所有

产品思考: 这套设计的背后,是Anthropic对「AI自主性边界」的深度思考。给AI足够的能力,但在关键节点保留人的控制权。六级验证不是在限制AI,而是在建立用户信任。在AI自主性越来越强的今天, 「让用户感到安全」本身就是一个核心产品价值 ,而不只是一个合规要求。
Prompt缓存的分层设计:成本、速度、灵活性的三角取舍
系统提示词被一个边界标记拆成:
  • 静态段 :全局缓存,不用每次重建
  • 动态段 :每次会话独立生成
这个设计乍看是纯技术优化,但背后是一个明确的产品取舍:哪些上下文是所有用户共享的,哪些是用户个性化的? 这条边界划在哪里,直接决定了产品的 成本结构 和响应速度。
还有一个细节值得单独说:代码里有一个函数叫。从命名就能看出来,有人在这上面踩过坑,然后用这个带「危险」前缀的命名方式,给所有后来的工程师留下了一个永久性的警告。这是工程文化在代码层面的具体体现—— 踩过的坑,要让所有人都看见。
DANGEROUS_uncachedSystemPromptSection()
情绪监控:用最朴素的方式度量「用户挫败感」
代码底层的遥测系统会追踪用户是否在终端爆粗口(匹配、等关键词),以及连续输入的频率。不用AI做情感分析,用正则表达式匹配关键词。 简单粗暴,但直接有效。
ffs
continue
这个设计选择很有意思。Anthropic完全有能力用更复杂的情感分析模型来做这件事,但他们选择了最简单的方案。这背后的产品逻辑是:你不需要精确测量用户的情绪,你只需要捕捉那些强烈的负面信号。用户在终端骂人,或者疯狂输入continue,这两个行为已经足够清晰地告诉你: 用户很沮丧,产品出了问题。

Part.03

那个「卧底模式」,暴露了一个还没人认真回答的问题
在所有泄露的功能中,争议最大的不是KAIROS,也不是ULTRAPLAN,而是一个叫 Undercover Mode(卧底模式) 的功能。
当系统检测到使用者是Anthropic内部员工,且正在操作公开的 GitHub 仓库时,这个模式会自动激活。
它的作用是:
  • 抹除所有AI生成代码的痕迹和归属信息
  • 在系统提示词里明确要求模型「不要暴露你的身份」
  • 更绝的是,代码中没有强制关闭该功能的开关
很多开发者看到这里感到不舒服,但我觉得这个功能触碰到的,是一个AI产品设计中至今没有定论的根本性问题:
当AI代替人类在开源社区贡献代码时, 透明度 和归属权的边界在哪里?
这不是Anthropic一家公司的问题。随着AI辅助编程越来越普及,这个问题迟早会落到每一个AI产品经理的决策桌上:
  • 你的产品是否需要明确告知用户,哪些内容是AI生成的?
  • 在开源社区的贡献中,AI的参与是否需要被标注?
  • 当AI生成的代码被合并进一个开源项目,这段代码的「作者」是谁?
Undercover Mode的存在,说明Anthropic已经在内部思考并做出了自己的选择。但这个选择是否正确,是否应该被公开讨论, 这才是真正值得产品圈深入探讨的问题。

Part.04

从项目经理视角看这件事:一个关于流程的警示
抛开产品层面的洞察,这次泄露本身也是一个值得认真对待的流程案例。
Anthropic是一家把「AI安全」写进公司使命的企业,却在5天内连续发生两次因「配置错误」导致的重大泄露,且第二次是第一次同款错误的重犯。 这不是运气问题,这是流程问题。
流程设计的缺陷
一个成熟的发布流水线,理应在CI/CD环节加入自动化检查:
.map
  • 文件是否被排除?
.npmignore
  • 是否配置正确?
这些检查的成本几乎为零,但没有人做
更令人难以理解的是,2025年2月Claude Code首发时就曾因同样的原因泄露过一次source map, 这次是同款错误的第二次重犯。
AI时代的质量把关难题
但这里有一个更深的问题值得追问: 在一个AI Agent已经能自主写代码、提交commit、管理发布流程的时代,谁来负责最终的质量把关?
当构建流程本身被AI参与管理时,这个问题变得格外微妙:
Anthropic的工程师们正在用Claude Code写Claude Code
用AI审查AI生成的代码
用自动化流程管理自动化流程
在这个闭环里,一个被默认开启的配置项,可能就这样从来没有人真正检查过。
这是每一个在推进「AI辅助研发」的团队都需要认真回答的问题:当AI深度参与你的研发流程,你的质量保障体系是否需要同步升级?

Part.05

对AI 产品经理的三个行动建议
这份意外的「竞品报告」,除了信息价值,还有三个可以直接转化为行动的启示。
  1. 把泄露的产品路线图当作行业趋势的参照系
KAIROS、Coordinator、ULTRAPLAN所代表的方向—— 持续记忆、主动协作、多Agent编排 ——就是AI产品在未来12~18个月内的核心演进方向。
如果你现在负责的AI产品还停留在「单轮对话」和「被动响应」的阶段,这份路线图应该让你感到紧迫:
  • 你的产品规划里,有没有对应这三个方向的布局?
  • 竞争对手可能已经在这条路上跑了多远?
  1. 重新审视你的AI产品中「用户控制权」的设计Claude Code的六级权限验证体系告诉我们,在AI自主性越来越强的今天, 「让用户感到安全」不是一个锦上添花的体验优化,而是一个核心产品价值。用户愿意给AI更多权限的前提,是他们相信自己随时可以收回这些权限。这个信任的建立,需要在产品设计层面认真对待。
  2. 学会从工程实现里读产品意图
这次泄露最大的价值,是让我们看到了一家顶级AI公司如何在工程层面落地产品理念:
  • 从Prompt缓存的分层设计
  • 到记忆系统的防漂移机制
  • 到情绪监控的极简实现
每一个技术决策背后都有明确的产品意图。 在AI时代,能从代码里读出产品逻辑,是AI 产品经理 的一项新的 核心竞争力 。

Part.06

写在最后
Anthropic用一种最不体面的方式,意外地向全世界展示了他们真正在做的事有多前卫。在AI行业充斥着PPT画饼和期货发布的今天,这份「被迫透明」反而成了一种意外的公信力。
但对产品经理来说,这次泄露的价值不在于代码本身,而在于它揭示的产品哲学:
真正好的AI产品,不是在卷功能,而是在重新定义人与AI的协作关系。
从工具,到助手,到同事——这条路,Anthropic已经在代码里走了很远。而现在,这条路的地图,意外地成为了我们所有人的参考。
内容由公众号[AGI Wish]原创发布
转载请注明出处