你有没有过这种体验:跟AI聊了半天,费劲把各种偏好、项目背景、个人习惯都交代清楚了,关掉窗口,第二天再打开——它全忘了。
这种"金鱼记忆"大概是所有AI用户最深的痛。你说"我上次跟你说的那个API方案",它一脸无辜:"我没有之前对话的记录。"
OpenClaw最新发布的4.15版本,正在试图彻底解决这个问题。而且解决的方式有点出乎意料——他们让AI学会了"做梦"。
没错,做梦。
在聊做梦之前,先说一个更基础但同样重要的更新:Active Memory(主动记忆)。
以前的AI记忆系统有个致命问题——它们都是被动的。你得主动说"记住这个",或者AI得自己想起来去翻记忆。但等到它想起来的时候,对话的节奏已经被打断了,回复的感觉就像硬塞进去的。
Active Memory的逻辑很简单:在你还没开口之前,AI就已经在翻记忆了。
每次你发消息,AI在回复之前会先跑一个轻量级的记忆检索。它看你说了什么,然后去记忆库里找相关的东西,再把这些上下文偷偷塞给自己的"主脑"。整个过程对你来说是透明的——你只会觉得"这AI今天怎么这么上道,连我上周提过的事都记得"。
这三种模式值得了解一下:
message模式:只看当前这条消息,快速匹配 recent模式:结合最近几轮对话,平衡速度和准确度 full模式:深度检索,适合需要全面回顾的场景
日常使用推荐recent模式,既不会太慢,也不会遗漏太多。

文档在这里:https://docs.openclaw.ai/concepts/active-memory[1]
4.15版本最让我觉得有意思的功能是Dreaming。名字起得浪漫,但背后其实是脑科学里一个很严肃的概念——睡眠记忆巩固。
你大概知道,人类睡觉的时候大脑并没有闲着。白天发生的各种碎片化经历,在睡眠中会被重新整理、筛选、归类。有用的记忆被加固存入长期记忆,没用的被丢弃。这个过程主要发生在两个阶段:浅睡眠和快速眼动(REM)睡眠。
OpenClaw的Dreaming机制基本上在做同样的事。
浅睡眠阶段,AI会回顾最近的短期记忆——比如今天和你的对话、新的文件变更、收到的事件——然后评估这些信息值不值得长期保存。就像你睡前脑子里过一遍今天发生了什么,有些事会留下印象,有些事睡一觉就忘了。
REM阶段更有意思。AI会把这些碎片化的记忆编织成所谓的"梦境叙事"——不是真的做噩梦或者美梦,而是把看似不相关的记忆片段串成一个有逻辑的故事。比如你周一提过一个项目需求,周三发了一份相关文档,周五又聊到一个技术方案,AI会在REM阶段把这三件事连起来,生成一段"梦境"记录。
这些梦境被存在 memory/dreaming/ 目录下,和日常的记忆文件分开存储。你可以把它们理解为AI的"潜意识"——不是用来直接回复你的,而是用来帮助AI建立更深层的理解。

还有一个配套的Memory Palace UI,可以可视化地查看AI的记忆宫殿。这个词来自记忆术里的"记忆宫殿"概念——把抽象的信息转化为空间化的、可视化的结构,帮助理解和检索。
说实话,这个功能目前还很早期,但方向是对的。如果你用过ChatGPT的记忆功能就知道,单纯"记住用户说了什么"其实不够,真正的挑战是理解这些信息之间的关系,并在此基础上形成更深的上下文理解。Dreaming试图解决的正是这个问题。
除了记忆系统,4.15还有几个值得关注的更新:
Claude Opus 4.7成为默认模型。Anthropic最新的模型,如果你一直在用OpenClaw,升级后不需要改任何配置,重启一下就能用上新大脑。
Gemini TTS语音合成。内置了Google的语音合成能力,支持多语言。这意味着你可以让AI用语音回复你,而且听起来不会像是机器人在念课文。
对于隐私敏感或者不想依赖云API的用户,4.15在本地模型支持上做了不少工作:
新增LM Studio插件,可以直接对接本地运行的模型 Ollama嵌入适配器恢复工作,可以用本地模型做记忆的语义搜索 还有一个实验性的localModelLean模式,专门为算力有限的本地模型精简工具集
这意味着你完全可以搞一个"全本地"的AI助手——模型本地跑,记忆本地存,语音本地合成。数据不出你的电脑。
对安全比较在意的人可能会关心这些:
MCP回环安全验证:防止模型调用自己的接口搞出死循环 exec审批提示脱敏:以前AI执行命令要审批时,提示里可能会带着你的API Key之类的敏感信息,现在会被遮住 workspace文件系统安全加固:防止AI的文件操作越界
这些都是不起眼但很重要的改进。当你给AI越来越多的权限时,安全边界就必须越来越清晰。
Codex内置provider:OpenAI的Codex现在可以独立管理认证和线程,不用跟其他OpenAI服务混在一起 GitHub Copilot嵌入支持:可以用Copilot的嵌入能力来做记忆搜索 记忆云存储:LanceDB记忆后端现在支持S3等云存储,适合多设备同步 Streaming看门狗:如果AI回复过程中30秒没有活动,会自动重置,防止卡死
OpenClaw这个项目在GitHub上已经有36万星了,4.15是它的第97个release。从这些更新可以看出一个趋势:AI助手正在从"工具"向"伙伴"进化。
以前的AI助手就像一个记性很好的实习生——你让它记什么它就记什么,但你不让它记它就忘。Active Memory让这个实习生变得更主动了,它会在你开口之前就去翻笔记。而Dreaming更进了一步,它试图让AI不仅仅是记住信息,而是理解信息之间的关系。
当然,现在说"AI有长期记忆"还为时过早。4.15的记忆系统仍然是基于文件和数据库的技术方案,跟人类的记忆机制差了十万八千里。但方向是对的:一个真正有用的AI助手,不能只有强大的推理能力,还得能记住你是谁、你在做什么、你关心什么。
如果你对OpenClaw感兴趣,可以去GitHub看看:https://github.com/openclaw/openclaw[2]
或者直接上手试试——npm install -g openclaw 就行,配置好API Key就能用。Active Memory和Dreaming都是可选插件,按需开启。
你的AI助手终于不用每天"失忆"了。有时候它还会在梦里想你的事。
引用链接
[1]https://docs.openclaw.ai/concepts/active-memory
[2]https://github.com/openclaw/openclaw
夜雨聆风