Anthropic 源码泄露,Claude 会做梦的记忆系统浮出水面
2026年3月,Anthropic Claude Code源码泄露事件炸穿了整个AI圈。
一个内部员工意外将系统prompt和记忆架构的代码上传到了GitHub公开仓库。短短几个小时,全网的AI工程师都在转发、分析、复刻。
有人分析Anthropic用了什么”prompt tricks”,有人讨论安全机制有什么漏洞。
但最值得我们关注的问题是:
这个问题,比源码泄露本身重要100倍。
因为Prompt可以抄、模型可以复制,但”懂你”的记忆体系,抄不来。

从泄露的源码中,社区扒出了Claude Code的记忆架构。基于 memoryTypes.ts,它将记忆分为四种类型:
这是对用户本人的画像。
源码中的描述是:”Contain information about the user’s role, goals, responsibilities, and knowledge. Great user memories help you tailor your future behavior to the user’s preferences and perspective.”
简单说,它要记住:
-
你是什么角色(数据科学家?第一次学编程的学生?) -
你的目标是什么 -
你有哪些知识储备
例如:当用户说”我是做后端开发的,这是第一次碰React”,Claude就会记下”deep Go expertise, new to React”,下次解释前端时,会用后端的类比来帮你理解。
这是最精彩的设计。
源码中特别强调:“Record from failure AND success”。
大部分AI只记录”你做错了”,但Claude同时记录”你做对了”。
“if you only save corrections, you will avoid past mistakes but drift away from approaches the user has already validated, and may grow overly cautious.”
翻译成大白话就是:如果只记错误,AI会变得越来越保守,因为它不知道哪些路已经走通过。
所以当你说完”是的,这样做就对”时,Claude也会悄悄记下来:”这个方案是用户验证过的,下次遇到类似问题可以继续用。”
这是项目的实时状态。
源码要求:”Always convert relative dates to absolute dates when saving (e.g., ‘Thursday’ → ‘2026-03-05’)”。
因为记忆会跨时间存在,今天的”下周四”到下周可能已经过期了。Claude会把所有相对时间转换成绝对时间戳,避免”记忆漂移”。
这是外部系统的指针。
记住” bugs在Linear的INGEST项目里”、”Grafana的/api-latency是值班看板”这些信息,下次你提到这些系统时,Claude就知道去哪里找上下文。
四层记忆的存储是纯文件系统,不是向量数据库。
这和OpenClaw的设计理念一致——便于人工干预。
你可以随时打开MEMORY.md,看看AI记了什么、是否偏了、该修正就修正。透明可审计,才是可信的AI。
最牛的就是那个”+1″——Auto Dream。
源码位置:services/autoDream/autoDream.ts
它的触发条件(三重门):
-
时间门 :距上次整合 ≥ 24小时 -
会话门 :≥ 5个新会话 -
锁门 :无其他进程正在整合 只有当三重门都打开时,Claude才会”做梦”——在后台启动一个forked subagent,调用 /dream prompt,自动完成记忆的整理和优化。
这就像人脑在睡眠时巩固重要记忆、丢弃冗余信息一样。
说完Claude Code,再看OpenClaw的设计。
OpenClaw更加极致——完全采用纯文件系统,没有向量数据库。
- SOUL.md
:核心人格与价值观,系统的”灵魂” -
IDENTITY.md :具体人设与操作边界 - USER.md
:用户身份、业务背景、偏好清单 - MEMORY.md
+ memory/YYYY-MM-DD.md:长期记忆 + 每日工作日志
核心原因:便于人工干预。
向量数据库的问题是——你只能搜到”相似的”,但你无法精确知道”AI到底记住了什么”。而文件系统是透明的,每一行都在明面上,你可以随时打开MEMORY.md,告诉它”这里你理解偏了”。
源码泄露事件让所有人看到了Anthropic的prompt tricks。但真正值钱的,不是那些技巧,而是这套”越用越懂你”的记忆系统。
今天你用GPT-4,明天用Claude 4,都没有本质差别。但你培养了三个月的”AI搭档”——它知道你叫老石、知道你做企业AI服务、知道你凌晨效率最高——这个理解,带不走。
每个用户都在帮AI校准对自己的理解。用户越多,画像越精准。这不是参数的scaling law能解释的。
当AI犯错时,你可以打开MEMORY.md,告诉它”这里你理解错了”,它下回就会改。这才是人机协作的正确姿势。
源码泄露事件终会过去,但有一个事实越来越清晰:
下次选AI产品时,问一句:
“它的记忆系统,能让我干预吗?”
能回答这句的AI,才值得长期培养。
夜雨聆风