Claude Code源码泄漏24小时:70k星复刻项目、未公开的主动后台Agent、未来产品路线图全曝光
⚡ 划重点 2026年3月31日,Anthropic旗下的Claude Code以一种极其戏剧性的方式完成了“开源”。因工作人员打包失误,其完整源代码被泄露,24小时内全网疯传。韩国开发者迅速推出复刻项目,GitHub狂揽70k Star。这次泄漏不仅让核心工程实现公之于众,更让行业第一次近距离看到了顶级AI Coding Agent的内部构造、未公开功能,甚至是未来研发路线。
今天,我们回顾这次事件,看看背后都有哪些细节。
一个本该用于调试的source map文件,让Anthropic的核心机密裸奔了24小时。

01 低级失误,顶级泄露
3月31日凌晨,Anthropic将claude-code 2.1.88版本推送到npm公开仓库。打包过程中遗漏了对TypeScript source map文件的排除规则,一个59.8MB的source map文件被打入包中,直接指向了Anthropic存放在Cloudflare R2的一个zip压缩包——里面就是Claude Code的完整源代码。
发现者Chaofan Shou,Solayer Labs软件工程师、FuzzLand联合创始人,UC Berkeley计算机科学博士,专攻程序分析与网络安全。他第一时间在X平台公开了源码链接,引发轩然大波。
更具讽刺意味的是:Claude Code内部本身就搭载了极其完善的防泄漏机制(Undercover Mode),可最终让源码流出的不是黑客攻击,而是一个没被清理干净的调试文件。
02 复刻与传播:开发者用AI重建AI
韩国开发者Sigrid Jin在凌晨4点被手机通知吵醒,作为Claude Code深度用户,他迅速行动——不是简单复制,而是用Python重写核心能力,打造出复刻项目claw-code,天亮前就推上GitHub,斩获70k Star。
更微妙的是,Sigrid Jin的重写过程大量借助AI工具(多Agent并行审查、代码持续执行、跨语言移植编排),让泄漏的AI工具代码,成了其他开发者用AI重建AI工具的核心燃料。

03 未公开功能:AI Agent的未来形态
泄漏代码中整理出44个功能Flag,其中20个是已构建完成但默认关闭的未发布功能。以下是核心亮点:
KAIROS:主动后台助理
KAIROS(古希腊语“恰当时机”)在代码中出现超150次。它将AI从“你问我答”变为持续观察、主动行动的后台Agent。系统周期性发送心跳信号(tick),KAIROS自主评估是否有可执行任务,有则执行,无则休眠。根据终端状态调整行为:用户不在电脑前时更大胆行动,用户聚焦时更多协商。配备专属工具:SleepTool、SendUserMessage、PushNotification(支持手机推送)、SubscribePR、CronCreate等。每日日志只追加写入,输出模式克制,仅在真正有价值时交互。目前锁在tengu_kairos运行时门控后,仅内部开放,但代码已成型,随时可上线。
Daemon模式:后台常驻运行
Claude Code设计了四种会话类型:interactive、bg、daemon、daemon-worker。Daemon模式是纯粹的无界面(headless)执行器,可像数据库服务那样常驻后台,不再依赖终端窗口。搭载完整cron调度器,支持标准5字段cron表达式、本地时区,默认30天自动过期,任务持久化到JSON文件,进程重启自动恢复。还设计了jitter机制防止全球用户定时任务同时触发。
远程scheduled agents(远程调度代理)在Anthropic云端运行完全隔离的Claude Code实例,用户可通过/schedule命令管理,最小执行间隔一小时。
UDS_INBOX:多实例协作
为不同Claude Code实例搭建专属通信通道,打通实例间壁垒,实现实时消息交换、协同处理复杂任务,即使没有终端附着也能保持协作运行,让Claude Code从简单命令行工具逼近多实例协作的本地智能系统。
Buddy:电子宠物系统
一套完整的电子宠物系统,设计18个宠物物种,稀有度分级,RPG风格属性(DEBUGGING、SNARK、PATIENCE、CHAOS、WISDOM),低概率闪光版本。每个用户账号对应唯一宠物,确定性生成,不可刷新改变,形成专属情感连接。Anthropic在产品人格化上的尝试,通过情感连接提升用户粘性。
auto dream:自动梦境引擎
运行在独立子进程的后台引擎,即使未使用Claude Code也在后台工作。核心任务是合并零散观察信息、消解逻辑冲突,将杂乱上下文整理成结构化事实信息,存入系统供后续使用。命名“dream”寓意明确:用户离开后,AI像人类做梦一样在后台思考、整理、消化交互信息,形成可复用、可持续的长期记忆。
Ultraplan:端云协同规划
将任务分层处理:云端更强模型实例负责复杂规划(深度探索、分析拆解,耗时长达几十分钟),本地实例负责贴近用户环境、调用本地工具、即时执行反馈。打破单一模型处理所有任务的模式,实现算力与能力的合理分配,为未来AI Agent架构树立标杆。

04 内部安全机制:防护与反制
Undercover Mode(卧底模式)
检测当前仓库是否为Anthropic内部白名单项目,若不是则进入谨慎状态,强制隐藏AI身份,要求生成的代码、提交信息必须像人类开发者,防止内部信息通过Claude Code泄露到公开代码中。
防蒸馏机制:假工具注入 + 思维链加密
假工具注入:实时检测API流量,发现被录制用于训练竞争模型时,自动注入虚假工具调用指令,污染对方训练数据集。
思维链加密:API不再返回详细思考步骤,而是压缩成摘要文本并打上防伪标签,官方客户端可凭标签找回后台详细推理逻辑,第三方只能拿到结果文本,无法获取核心思维链。
情绪追踪机制
实时统计用户行为信号和语义反馈(频繁输入continue、错误提示、负面情绪表达),达到阈值时强制上报交互日志。用户的不满和挫败感成为最宝贵的负样本,直接标出系统最易让人失去耐心的环节,成为模型迭代和产品进化的燃料。

05 研发内幕:狼狈时刻与真实路线
泄漏代码暴露了Anthropic内部多个模型代号:Capybara、Fennec、Numbat等。更关键的是,研发记录显示顶级AI模型的进化并非一条平滑上升曲线,而是充满反复试错、性能波动、补丁修正和工程兜底。
例如,某个版本出现幻觉率明显回升,团队并未重新训练,而是在应用层加入额外缓解逻辑;某个功能优化后出现其他功能兼容性问题,只能不断打补丁。这些细节揭示了:成熟稳定的顶级AI背后,是大量工程脚手架和持续的问题修正。
06 行业影响:一本高阶参考答案
这次泄漏,让原本属于Anthropic的核心机密,变成了整个行业都能拆解学习的样本。竞争对手获得直接的设计灵感与功能方向;广大开发者拿到一份难得的参考教材,第一次看清顶级AI编程产品的底层架构。
这份“参考答案”包含了Anthropic对AI Agent未来发展的核心思考:
-
从被动工具到主动助手的形态转变 -
从单一实例到多实例协作的架构升级 -
从本地或云端单端运行到端云协同的分工模式 -
从短期记忆到长期记忆的能力提升 -
从功能实现到产品人格化的设计升级
它为整个AI Agent行业画出了未来几年的产品草图。可以预见,未来一段时间会有大量基于Claude Code架构思路的AI Agent产品出现,而Anthropic也将加快未公开功能的上线节奏。一场由低级失误引发的行业震动,最终可能推动整个AI Agent行业进入更快的发展阶段。

✨ 关注智知宇宙 探索更多思想星河 ✨
夜雨聆风