一个周末,两个大版本,上百项更新。当别人在休息的时候,OpenClaw 团队在疯狂输出。我翻了完整 changelog,看完只有一个感觉:这帮人卷疯了。
先说结论
如果你还把 AI 助手当聊天机器人用,你可能已经落后了。
这两个版本释放了一个明确信号:AI助手正在从"被动响应"进化为"主动记忆+自主执行"。
下面拆解几个最炸的更新。
🔥 第一炸:Active Memory —— AI 不再是金鱼
这是 4.10 最重磅的功能,没有之一。过去用 AI 助手,最大的痛点是什么?**记不住**。你说过的偏好、上次聊到一半的项目、一周前的决定——全丢了。每次对话都像重新认识。
Active Memory 直接解决这个问题。
它的工作方式很简单:在你每次提问之前,AI会自动检索相关记忆片段,注入上下文。
你不用再说"记住这个",不用手动打 tag,不用维护知识库。它自己会找、自己会关联、自己会在需要的时候调出来。
这意味着什么?意味着 AI 助手从"无状态计算器"变成了"有记忆的同事"。你跟它聊了三个月,它对你的了解会越来越深——你的工作习惯、项目偏好、沟通风格,全部沉淀下来。
这才是 AI 助手该有的样子。
🔥 第二炸:Dreaming —— AI 开始做梦了
4.10 + 4.11 连续强化了 Dreaming 系统。
简单说:AI 会在"睡眠"期间自动整理对话记忆,提取关键信息,建立知识图谱。
更狠的是,4.11 新增了 ChatGPT 对话导入功能。你之前在 ChatGPT 上积累的对话记录,可以直接搬过来,让 OpenClaw 的记忆系统接手。
换句话说:你不用从零开始培养一个新助手了。
🔥 第三炸:内置视频生成
从 4.7 开始,OpenClaw 就开始内置媒体生成能力。到 4.10/4.11,视频生成已经支持:
- **Seedance 2.0** 模型接入
- URL 直接交付(不用等下载)
- 参考音频输入(AI 可以"看"着图"听"着声音生成视频)
- 自适应宽高比
一句话:生成视频和发一条消息一样简单。
🔥 第四炸:Codex 原生集成
4.10 把 OpenAI Codex 做成了内置 provider。
这意味着你可以直接用 codex/gpt-* 模型,走 Codex 独立的认证、线程管理和上下文压缩路径。和普通 OpenAI 模型互不干扰,切换丝滑。
对于需要同时用多个模型的人来说,这是刚需。
🛡️ 安全:悄悄加固了整个地基
这些不会被写在标题里,但可能比新功能更重要:
- 浏览器 SSRF 防御全面收紧(跨域、重定向、子框架全覆盖)
- exec 执行前预检加固,环境变量注入拦截
- 插件安装时依赖安全扫描
- WebSocket 帧大小限制防溢出
- 远程节点输出统一标记为"不可信"
上一个在安全上这么下功夫的开源项目,叫 Linux 内核。
🐛 修复:那些折磨人的小毛病终于修了
如果你是老用户,这几个修复会让你热泪盈眶:
| 问题 | 修复 |
|---|---|
| Cron 任务偶尔莫名不执行 | 零值时间戳自愈 |
| WhatsApp 断连后消息丢失 | 重连恢复 |
| 跨平台线程消息发错地方 | 线程路由重写 |
| 工具调用后"顺便问个问题"用不了 | BTW 功能修复 |
| Codex OAuth 登录失败 | scope 权限修复 |
📊 数据说话
两个版本的更新规模:
- 4.10:**10+ 新功能,50+ 修复**
- 4.11:**7 新功能,11 修复**
- Unreleased 分支已经积累了 **9 项修复**
开发节奏堪比大厂产品团队。
🤔 我的看法
OpenClaw 的发展方向已经很清晰了:
不是一个聊天框,而是一个有记忆、能执行、会学习的个人AI操作系统。
Active Memory 让它"记住你",Dreaming 让它"理解你",内置工具链让它"帮你做事"。
传统的 AI 助手产品(不点名了),还在纠结怎么让回答更像人话的时候,OpenClaw 已经在做让助手真正融入你的工作流这件事了。
这不是内卷,这是进化。
🚀 怎么体验?
npm install -g openclaw@latest
openclaw configure
```升级后记得跑一下 openclaw doctor --fix,自动修复配置兼容性问题。
你用的什么 AI 助手?有没有遇到过"记不住"的痛点?评论区聊聊。
*本文基于 OpenClaw 官方 CHANGELOG 整理,仅代表作者观点。*
OpenClaw GitHub:
github.com/openclaw/openclaw
夜雨聆风