
你有没有想过,为什么人类睡觉时大脑还在转?
神经科学告诉我们:睡眠中的「做梦」不是无意义的随机放电,而是大脑在整理白天的记忆,提取规律,删除噪音,为第二天的高效运转做准备。
昨天,Anthropic 在 Code with Claude 开发者大会上宣布了一个功能,名字就叫「Dreaming」——让 AI Agent 在任务间隙「做梦」,自我整理记忆,自我发现规律,自我进化。
这不是噱头。这是 AI Agent 从「工具」走向「协作者」的一个关键信号。
「做梦」到底是什么?
先说清楚技术本质,不然后面的分析没有根基。
Claude Managed Agents 的「Dreaming」是一个定时触发的后台进程。它会做三件事:
① 回顾历史 Session
跨越多个 Agent、多个任务的历史记录,不只是当前对话,而是整个项目周期内所有 Agent 的行为日志。
② 提取高价值记忆
从海量历史中识别出值得保留的内容:反复出现的错误模式、Agent 自发收敛的高效工作流、团队共同的偏好和习惯。
③ 重构记忆结构
把提取出的内容写入持久化记忆,同时清理低信号噪音,保持记忆库的「高密度」。
「Dreaming 能发现单个 Agent 看不到的规律——包括反复出现的错误、Agent 收敛的工作流,以及团队共享的偏好。它还会重构记忆,让记忆随着演进保持高信噪比。」
—— Anthropic 官方
这个功能目前是 Research Preview,仅限 Claude Platform 上的 Managed Agents 用户申请使用。
为什么这件事比看起来重要得多?
很多人看到这个新闻,第一反应是:「哦,又一个 AI 新功能。」
但如果你做过 AI 产品,你会立刻意识到这解决的是一个根本性的工程难题。
上下文窗口是 AI Agent 的阿喀琉斯之踵
今天所有的 LLM 都有上下文窗口限制。哪怕是百万 Token 的模型,在真实的长期项目中也会遇到瓶颈——信息太多,重要的被稀释,关键的被遗忘。
现有的解法叫「Compaction」(压缩):定期分析对话,删掉不重要的,保留关键信息。但这个方案有两个致命缺陷:
- 只在单个 Agent 内生效,跨 Agent 的知识无法共享
- 被动压缩,不能主动识别「什么是真正有价值的规律」
「Dreaming」是一个主动的、跨 Agent 的、异步的记忆管理机制。它不是在压缩,而是在学习。
多 Agent 协作的记忆同步问题
当你用多个 Agent 协同完成一个复杂任务时,每个 Agent 都有自己的上下文,但它们之间的「共同经验」无处存放。
Agent A 发现了一个高效的代码审查流程,Agent B 不知道。Agent C 踩了一个坑,Agent D 还会再踩一遍。
「Dreaming」让这些跨 Agent 的经验能够沉淀下来,变成整个 Agent 团队的「组织记忆」。
这才是真正的 AI 团队,而不是一堆各自为战的 AI 工具。
产品经理该怎么看这个信号?
不要只看功能本身,要看它背后的产品逻辑演变。
信号一:AI Agent 正在从「单次调用」走向「长期关系」
过去我们设计 AI 产品,默认的心智模型是:用户提问 → AI 回答 → 结束。每次交互都是独立的。
「Dreaming」代表的是另一种产品形态:AI Agent 是一个会随时间成长的协作者,它记得你的习惯,它知道团队的偏好,它会从错误中学习。
这对产品设计的影响是深远的:
- 用户旅程不再是单次任务,而是长期关系的建立
- 产品价值不只在于「当下有多聪明」,还在于「用得越久越好用」
- 用户迁移成本会大幅提升——因为 Agent 积累的记忆是有价值的资产
信号二:「记忆」将成为 AI 产品的核心竞争壁垒
当所有 AI 模型的基础能力趋于同质化,谁的记忆系统更好,谁就能建立更深的用户粘性。
想象一下:一个用了你们产品 6 个月的 AI Agent,已经深度理解了你的业务流程、团队偏好、历史决策。这时候竞争对手推出了一个「更聪明」的模型,用户会轻易切换吗?
记忆 = 护城河。
这是 Anthropic 这个功能背后真正的商业逻辑。
信号三:AI 产品的「质量评估」维度需要升级
现在大多数 AI 产品的评估维度还停留在:准确率、响应速度、价格。
但当 Agent 开始「做梦」、开始自我进化,你需要新的评估维度:
- 记忆质量:Agent 提取的规律是否准确?是否有用?
- 进化速度:Agent 从错误中学习的效率如何?
- 记忆可解释性:用户能否理解和干预 Agent 的记忆内容?
这些维度,今天大多数 AI 产品团队还没有认真思考过。
一个值得警惕的问题
「Dreaming」很美好,但有一个问题 Anthropic 没有正面回答:
谁来保证 Agent「做梦」时提取的规律是正确的?
如果 Agent 在历史任务中反复犯了同一个错误,它会把这个「错误模式」识别为「规律」并强化吗?如果团队的某个坏习惯被 Agent 学习并固化,怎么纠正?
Anthropic 提到用户可以选择「手动审查记忆变更」,但在实际的企业场景中,有多少团队有能力和意愿去审查 AI 的记忆更新?
自我进化的 AI,需要配套的人类监督机制。 这是产品设计层面必须解决的问题,不能只靠用户自觉。

对产品经理的三个行动建议
① 重新审视你的 AI 产品的「记忆架构」
如果你在做 AI 产品,现在就应该问:我们的产品有没有跨会话的记忆机制?用户的历史行为有没有被有效利用?这是下一个竞争维度。
② 把「长期关系」纳入产品设计
不要只设计「第一次使用」的体验,要设计「用了 3 个月之后」的体验。用得越久,产品应该越好用——这才是真正的 AI 产品护城河。
③ 建立 AI 行为的可审计机制
当 AI 开始自我进化,透明度和可控性变得更重要。产品设计中要给用户提供「查看 AI 记忆」「纠正 AI 认知」的能力,这不只是功能,是信任的基础。
「做梦」这个词,Anthropic 选得很聪明。
它让人联想到人类的认知机制,让一个技术功能变得直觉可理解。但更重要的是,它揭示了 AI Agent 产品演进的方向:从工具到伙伴,从单次调用到长期成长。
这条路刚刚开始走。
你们团队在用 AI Agent 做什么?有没有遇到「Agent 记性差」的问题?评论区聊聊。
如果对你有用,点个「在看」支持一下 👇
夜雨聆风