之前一直在用3.28版本,怕升级挂了,一直没升级。今天升级了一下最新版本,研究了一下都有哪些新功能。AI 工具这两年多到眼花,每周都有新产品出来说自己更聪明、更快、更懂你。大多数我试了两天就放下了。OpenClaw 不一样的地方,不是它背后跑的哪个模型有多强——它接了几十个模型,这不是它的差异点。它真正不一样的地方,是它在解决一个绝大多数 AI 工具都假装不存在的问题:你和 AI 之间的关系,能不能随着时间积累?你今天花两小时跟它讲清楚你的项目背景、你的偏好、你踩过的坑。明天打开,一切清零。你得重新介绍自己。这不是某一个工具的问题,这是整个行业的默认状态。大家默认 AI 是无状态的,每次对话是全新开始,记忆靠上下文窗口塞。OpenClaw 这几个月的更新,有一条很清晰的主线:他们在认真拆解这个问题,一层一层地解决它。下面我按版本顺序,从最早到最新,讲讲这几个月他们都做了什么。
PART 01
v2026.4.5(4月6日):打基础的一个大版本这个版本的更新量很大,100 多个贡献者,8000 多个 commit。我把里面我觉得真正重要的东西挑出来讲。Dreaming 的第一次亮相Dreaming 是这几个月最核心的功能线,它在这个版本里以”实验性功能”的形态首次出现。先解释一下它是什么,以及为什么这件事比表面上看起来重要得多。现在市面上几乎所有的 AI 记忆方案,本质都是「更大的上下文窗口」。你说过的话,存在数据库里,下次对话时候塞进提示词里,让模型「看到」。这个方案有效,但有三个根本性的天花板:第一,成本随时间线性增长。你用的时间越长,历史记录越多,每次对话的 token 消耗越大。用到一定程度,经济上不可持续。第二,没有遗忘机制。你六个月前说自己不喜欢写文档,三个月前说要改变这个习惯,今天已经在认真写了。但这三条信息在上下文里权重完全相同,AI 无法判断哪条更反映现在的你。第三,无法建立跨对话的规律。你在十次不同的对话里,都在某个类似的决策节点上卡壳。这个模式藏在十次对话的日志里,上下文塞入方案看不到它。Dreaming 的思路来自人类的睡眠记忆机制。睡眠研究里有一个关键发现:大脑对白天经历的处理,主要发生在睡眠的不同阶段。轻度睡眠做初步筛选,深度慢波睡眠做信息压缩,REM 阶段做跨记忆的整合与联结。这不是比喻,是有神经生物学实验支撑的机制。OpenClaw 的 Dreaming 把这个结构直接映射到 AI 记忆处理上:
Prompt 缓存的系统性优化Prompt 缓存的原理是:如果你的提示词的某个前缀和上次一样,服务端可以复用上次的计算结果,不需要重新跑。这能显著降低延迟和 API 费用。这个版本针对那些「无意义地破坏缓存」的场景做了一系列修复:工具定义顺序固定化、系统提示格式归一化、HEARTBEAT.md移到缓存边界以下、移除系统提示里重复的工具定义文本。这些合在一起,实际使用中缓存命中率大幅提升,openclaw status --verbose里可以直接看到数字。安全加固
设备配对越权:非管理员身份只能管理自己的设备 token,不能触碰其他设备的访问权限。
浏览器SSRF绕过:每次导航跳转后都重新跑封锁检查,防止通过点击序列引导 AI 访问内网地址。
ClaudeCLI环境隔离:OpenClaw 启动 Claude CLI 子进程时清理继承的环境变量,防止请求被重定向到不同的配置树或代理。
PART 02
v2026.4.12(4月13日):质量巩固 + Active Memory 登场Active Memory:记忆检索层Dreaming 解决长期记忆的沉淀问题,Active Memory 解决另一个问题:当前对话里,该从记忆库里取哪些内容出来用?Active Memory 插件会在每次回复之前,自动从你积累的记忆里检索相关内容附加进上下文。三种模式:message(针对当前消息)、recent(最近几条对话)、full(全量检索)。用/verbose可以实时看到它在调取哪些内容。这和 Dreaming 组合起来是一套完整的记忆架构:Dreaming 负责把短期信息整理成长期记忆,Active Memory 负责在需要的时候把对的记忆取出来用。LM Studio 本地模型接入加了 LM Studio 的内置供应商,包含完整引导流程、运行时模型自动发现、流式预加载,以及用于 memory search 的本地 embedding。本地模型配置门槛大幅降低。macOS 本地语音(实验性)通过 Apple MLX 框架在 macOS 上实现本地语音合成。以前 Talk Mode 语音必须调云端 API,现在苹果芯片 Mac 用户可以完全本地运行,延迟更低,不需要联网。Dreaming 稳定性修复对 Dreaming 的事件消费和 transcript 处理做了修复,解决了重复摄入的问题。