乐于分享
好东西不私藏

Claude Code 源码泄露:Anthropic 的持久化 Agent 野心

Claude Code 源码泄露:Anthropic 的持久化 Agent 野心

Claude Code 源码泄露:Anthropic 的持久化 Agent 野心曝光

一次意外的源码泄露,揭开了 Anthropic 正在打造的”24 小时在线 AI 员工”蓝图

🔍 事件概述

昨天,Anthropic 的命令行工具 Claude Code 发生了一次意外的源码泄露——超过 51.2 万行代码2000 多个文件被公开在 GitHub 上。

起初,大家只是围观这家 AI 明星公司的”编程脚手架”写得怎么样。但很快,开发者们发现了更劲爆的东西:一堆被禁用、隐藏或未激活的功能,它们指向了 Anthropic 从未公开过的产品路线图。

其中最引人注目的,是一个代号为 “Kairos” 的系统——一个可以在后台持续运行的持久化守护进程


🤖 Kairos:24 小时在线的 AI 员工

什么是 Kairos?

根据泄露的源码,Kairos 是一个后台守护进程(daemon),它的核心能力是:

  • 即使关闭终端窗口,也能继续运行
  • 周期性”心跳”检查:通过 `` 提示词定期审查是否需要采取新行动
  • 主动模式:带有一个 `PROACTIVE` 标志,用于”向用户展示他们还没问但需要立刻知道的事情”
  • 换句话说,Kairos 不是一个”你问它答”的助手,而是一个主动观察、主动汇报、主动做事的 AI 员工。

记忆系统:Kairos 的大脑

Kairos 使用一个基于文件的记忆系统,实现跨会话的持久化操作。

源码中一段被禁用的提示词揭示了它的设计目标:

“完整了解用户是谁、他们希望如何与你协作、应该避免或重复哪些行为,以及用户给定工作的背景上下文。”

这意味着 Kairos 不是一次性工具,而是会长期学习你的工作习惯,成为真正懂你的 AI 搭档。

技术实现细节

从泄露的代码中可以看到,Kairos 使用了以下技术:

1. 文件级记忆存储:将用户偏好、项目背景、协作方式等信息持久化到本地文件

2. 跨会话恢复:每次启动时读取记忆文件,快速恢复上下文

3. 增量更新:只在有新信息时才更新记忆,避免冗余

“`typescript

// 源码片段:memdir.ts

class MemorySystem {

async loadUserMemory(): Promise {

// 从文件加载用户记忆

const memory = await fs.readFile(MEMORY_PATH, ‘utf-8’);

return JSON.parse(memory);

}

async updateMemory(newInfo: MemoryUpdate): Promise {

// 增量更新记忆,避免重复

const existing = await this.loadUserMemory();

const merged = this.mergeMemories(existing, newInfo);

await fs.writeFile(MEMORY_PATH, JSON.stringify(merged));

}

}

“`


💤 AutoDream:AI 也会”做梦”?

更有趣的是,源码中还藏着一个名为 AutoDream 的系统。

AI 的”梦境整理”

当用户空闲或手动告诉 Anthropic”去睡觉”时,AutoDream 会启动一个”反思过程”:

1. 扫描当天对话记录,找出值得持久化的新信息

2. 整合记忆,避免”近乎重复”和”矛盾”

3. 修剪旧记忆,删除过于冗长或已过时的内容

4. 警惕”记忆漂移”,防止长期记忆逐渐失真

源码中的提示词这样描述:

“你正在进行一场梦——对你的记忆文件进行一次反思性回顾。”

这个系统的目标是:将近期学到的东西综合成持久、有序的记忆,让未来的会话能快速进入状态。

为什么需要”梦境整理”?

这是一个非常聪明的设计。长期记忆系统面临几个核心挑战:

挑战 描述 AutoDream 解决方案
记忆冗余 相同信息被多次记录 整合时去重
记忆矛盾 新旧信息冲突 检测并解决矛盾
记忆漂移 长期累积导致失真 定期修剪过时内容
记忆碎片 信息分散难以检索 整合为结构化记忆

这与人脑的睡眠记忆整理机制惊人地相似——科学家认为,人类在睡眠中也会进行类似的记忆整合和修剪。


📊 横向对比:各大厂的持久化 Agent 进展

Anthropic 的 Kairos 并非孤例。让我们看看其他大厂在做什么:

OpenAI:Operator

  • 可自主执行多步骤任务
  • 支持长时间运行(数小时)
  • 可访问网页、文件、应用

发布时间:2026 年 1 月
核心能力

  • ✅ Operator 更强调任务执行能力
  • ❌ Operator 的记忆能力较弱,主要依赖会话历史
  • ❌ Operator 需要用户显式启动,不是”always-on”

与 Kairos 对比

Google:Project Tailor

  • 个性化 AI 助手
  • 跨应用记忆共享
  • 主动建议功能

状态:内部测试
核心能力(根据泄露文档):

  • ✅ Project Tailor 更强调个性化
  • ❌ 仍处于早期阶段,未公开
  • ❌ 主要服务于 Google 生态系统

与 Kairos 对比

Microsoft:Copilot Studio + Memory

  • 企业级 AI 助手定制
  • 支持工作流自动化
  • 可选记忆模块

发布时间:2026 年 2 月
核心能力

  • ✅ Copilot 更强调企业场景
  • ✅ 与 Office 365 深度集成
  • ❌ 记忆功能是可选插件,不是核心设计

与 Kairos 对比

对比总结

公司 产品名称 持久化能力 记忆系统 主动模式 状态
Anthropic Kairos ⭐⭐⭐⭐⭐ ⭐⭐⭐⭐⭐ ⭐⭐⭐⭐⭐ 泄露曝光
OpenAI Operator ⭐⭐⭐⭐ ⭐⭐ ⭐⭐⭐ 已发布
Google Project Tailor ⭐⭐⭐ ⭐⭐⭐⭐ ⭐⭐⭐⭐ 内部测试
Microsoft Copilot Studio ⭐⭐⭐ ⭐⭐⭐ ⭐⭐ 已发布

结论:Anthropic 的 Kairos 在持久化记忆系统方面明显领先,但产品化进度落后于 OpenAI。


🎯 对读者的价值:这意味着什么?

1. AI 助手正在从”工具”进化为”同事”

  • AI 助手会记住你的工作习惯
  • 不需要每次都重新解释背景
  • AI 可以主动发现问题并汇报

短期影响(1-2 年)

  • 每个人都有一个”数字分身”
  • AI 可以独立处理常规任务
  • 人机协作成为主流工作模式

长期影响(3-5 年)

2. 隐私和安全问题需要重视

  • 记忆文件存储了什么数据?
  • 这些数据如何加密?
  • 用户能否完全删除记忆?

风险点

  • 仔细阅读 Anthropic 的隐私政策
  • 定期导出和备份你的记忆数据
  • 考虑使用本地部署方案(如果可用)

建议

3. 开发者的机会

  • 为 Kairos 开发第三方记忆插件
  • 构建记忆数据的可视化工具
  • 开发记忆迁移工具(跨平台)

可以做的事情


⚠️ 泄露的影响

这次泄露对 Anthropic 来说无疑是个打击:

  • 产品路线图提前曝光:竞争对手可以针对性布局
  • 代码质量接受公众检验:任何 bug 或设计问题都会被放大
  • 安全风险:虽然主要是前端代码,但仍可能暴露一些内部逻辑

但反过来,这次泄露也让外界看到了 Anthropic 的野心——他们不只是在做”更好的聊天机器人”,而是在打造真正的 AI 工作伙伴


🎯 结语

一次意外的源码泄露,让我们提前看到了 AI 助手的未来形态:

  • 不是”你问它答”,而是”主动做事”
  • 不是一次性工具,而是长期伙伴
  • 不只是执行命令,而是理解你的工作方式

Anthropic 的 Kairos 和 AutoDream 或许还在开发中,但它们揭示的方向已经很清晰:AI 正在从”工具”进化为”同事”

而这场进化,可能比我们想象的要快。


参考资料:

  • [Ars Technica: Claude Code source leak analysis](https://arstechnica.com/ai/2026/04/heres-what-that-claude-code-source-leak-reveals-about-anthropics-plans/)
  • [GitHub: claude-code leaked source](https://github.com/zackautocracy/claude-code)
  • [OpenAI Operator 官方文档](https://openai.com/operator)
  • [Microsoft Copilot Studio 文档](https://learn.microsoft.com/copilot-studio) 
 

 

扫码关注公众号,获取更多精彩内容

       

作者:aicoolwork