Claude Code 源码泄露:Anthropic 的持久化 Agent 野心
Claude Code 源码泄露:Anthropic 的持久化 Agent 野心曝光
🔍 事件概述
昨天,Anthropic 的命令行工具 Claude Code 发生了一次意外的源码泄露——超过 51.2 万行代码、2000 多个文件被公开在 GitHub 上。
起初,大家只是围观这家 AI 明星公司的”编程脚手架”写得怎么样。但很快,开发者们发现了更劲爆的东西:一堆被禁用、隐藏或未激活的功能,它们指向了 Anthropic 从未公开过的产品路线图。
其中最引人注目的,是一个代号为 “Kairos” 的系统——一个可以在后台持续运行的持久化守护进程。
🤖 Kairos:24 小时在线的 AI 员工
什么是 Kairos?
根据泄露的源码,Kairos 是一个后台守护进程(daemon),它的核心能力是:
- 即使关闭终端窗口,也能继续运行
- 周期性”心跳”检查:通过 `
` 提示词定期审查是否需要采取新行动 - 主动模式:带有一个 `PROACTIVE` 标志,用于”向用户展示他们还没问但需要立刻知道的事情”
- 换句话说,Kairos 不是一个”你问它答”的助手,而是一个主动观察、主动汇报、主动做事的 AI 员工。
记忆系统:Kairos 的大脑
Kairos 使用一个基于文件的记忆系统,实现跨会话的持久化操作。
源码中一段被禁用的提示词揭示了它的设计目标:
这意味着 Kairos 不是一次性工具,而是会长期学习你的工作习惯,成为真正懂你的 AI 搭档。
技术实现细节
从泄露的代码中可以看到,Kairos 使用了以下技术:
1. 文件级记忆存储:将用户偏好、项目背景、协作方式等信息持久化到本地文件
2. 跨会话恢复:每次启动时读取记忆文件,快速恢复上下文
3. 增量更新:只在有新信息时才更新记忆,避免冗余
“`typescript
// 源码片段:memdir.ts
class MemorySystem {
async loadUserMemory(): Promise
// 从文件加载用户记忆
const memory = await fs.readFile(MEMORY_PATH, ‘utf-8’);
return JSON.parse(memory);
}
async updateMemory(newInfo: MemoryUpdate): Promise
// 增量更新记忆,避免重复
const existing = await this.loadUserMemory();
const merged = this.mergeMemories(existing, newInfo);
await fs.writeFile(MEMORY_PATH, JSON.stringify(merged));
}
}
“`
💤 AutoDream:AI 也会”做梦”?
更有趣的是,源码中还藏着一个名为 AutoDream 的系统。
AI 的”梦境整理”
当用户空闲或手动告诉 Anthropic”去睡觉”时,AutoDream 会启动一个”反思过程”:
1. 扫描当天对话记录,找出值得持久化的新信息
2. 整合记忆,避免”近乎重复”和”矛盾”
3. 修剪旧记忆,删除过于冗长或已过时的内容
4. 警惕”记忆漂移”,防止长期记忆逐渐失真
源码中的提示词这样描述:
这个系统的目标是:将近期学到的东西综合成持久、有序的记忆,让未来的会话能快速进入状态。
为什么需要”梦境整理”?
这是一个非常聪明的设计。长期记忆系统面临几个核心挑战:
| 挑战 | 描述 | AutoDream 解决方案 |
|---|---|---|
| 记忆冗余 | 相同信息被多次记录 | 整合时去重 |
| 记忆矛盾 | 新旧信息冲突 | 检测并解决矛盾 |
| 记忆漂移 | 长期累积导致失真 | 定期修剪过时内容 |
| 记忆碎片 | 信息分散难以检索 | 整合为结构化记忆 |
这与人脑的睡眠记忆整理机制惊人地相似——科学家认为,人类在睡眠中也会进行类似的记忆整合和修剪。
📊 横向对比:各大厂的持久化 Agent 进展
Anthropic 的 Kairos 并非孤例。让我们看看其他大厂在做什么:
OpenAI:Operator
- 可自主执行多步骤任务
- 支持长时间运行(数小时)
- 可访问网页、文件、应用
发布时间:2026 年 1 月
核心能力:
- ✅ Operator 更强调任务执行能力
- ❌ Operator 的记忆能力较弱,主要依赖会话历史
- ❌ Operator 需要用户显式启动,不是”always-on”
与 Kairos 对比:
Google:Project Tailor
- 个性化 AI 助手
- 跨应用记忆共享
- 主动建议功能
状态:内部测试
核心能力(根据泄露文档):
- ✅ Project Tailor 更强调个性化
- ❌ 仍处于早期阶段,未公开
- ❌ 主要服务于 Google 生态系统
与 Kairos 对比:
Microsoft:Copilot Studio + Memory
- 企业级 AI 助手定制
- 支持工作流自动化
- 可选记忆模块
发布时间:2026 年 2 月
核心能力:
- ✅ Copilot 更强调企业场景
- ✅ 与 Office 365 深度集成
- ❌ 记忆功能是可选插件,不是核心设计
与 Kairos 对比:
对比总结
| 公司 | 产品名称 | 持久化能力 | 记忆系统 | 主动模式 | 状态 |
|---|---|---|---|---|---|
| Anthropic | Kairos | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | 泄露曝光 |
| OpenAI | Operator | ⭐⭐⭐⭐ | ⭐⭐ | ⭐⭐⭐ | 已发布 |
| Project Tailor | ⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | 内部测试 | |
| Microsoft | Copilot Studio | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | 已发布 |
结论:Anthropic 的 Kairos 在持久化和记忆系统方面明显领先,但产品化进度落后于 OpenAI。
🎯 对读者的价值:这意味着什么?
1. AI 助手正在从”工具”进化为”同事”
- AI 助手会记住你的工作习惯
- 不需要每次都重新解释背景
- AI 可以主动发现问题并汇报
短期影响(1-2 年):
- 每个人都有一个”数字分身”
- AI 可以独立处理常规任务
- 人机协作成为主流工作模式
长期影响(3-5 年):
2. 隐私和安全问题需要重视
- 记忆文件存储了什么数据?
- 这些数据如何加密?
- 用户能否完全删除记忆?
风险点:
- 仔细阅读 Anthropic 的隐私政策
- 定期导出和备份你的记忆数据
- 考虑使用本地部署方案(如果可用)
建议:
3. 开发者的机会
- 为 Kairos 开发第三方记忆插件
- 构建记忆数据的可视化工具
- 开发记忆迁移工具(跨平台)
可以做的事情:
⚠️ 泄露的影响
这次泄露对 Anthropic 来说无疑是个打击:
- 产品路线图提前曝光:竞争对手可以针对性布局
- 代码质量接受公众检验:任何 bug 或设计问题都会被放大
- 安全风险:虽然主要是前端代码,但仍可能暴露一些内部逻辑
但反过来,这次泄露也让外界看到了 Anthropic 的野心——他们不只是在做”更好的聊天机器人”,而是在打造真正的 AI 工作伙伴。
🎯 结语
一次意外的源码泄露,让我们提前看到了 AI 助手的未来形态:
- 不是”你问它答”,而是”主动做事”
- 不是一次性工具,而是长期伙伴
- 不只是执行命令,而是理解你的工作方式
Anthropic 的 Kairos 和 AutoDream 或许还在开发中,但它们揭示的方向已经很清晰:AI 正在从”工具”进化为”同事”。
而这场进化,可能比我们想象的要快。
参考资料:
- [Ars Technica: Claude Code source leak analysis](https://arstechnica.com/ai/2026/04/heres-what-that-claude-code-source-leak-reveals-about-anthropics-plans/)
- [GitHub: claude-code leaked source](https://github.com/zackautocracy/claude-code)
- [OpenAI Operator 官方文档](https://openai.com/operator)
- [Microsoft Copilot Studio 文档](https://learn.microsoft.com/copilot-studio)

扫码关注公众号,获取更多精彩内容
作者:aicoolwork
夜雨聆风