
刚刚发布!OpenClaw 2026.4.10 三大重磅更新,Codex 原生集成+主动记忆来了
17 项新功能 + 20+ 修复:Codex 独立认证、Active Memory 自动召回、macOS 本地语音。全面解析这次史诗级更新
引言:三天一迭代,OpenClaw 又爆了
就在 4 月 11 日,OpenClaw 发布了 2026.4.10 版本。
距离上次 4.9 版本才 5 天,又来一个重量级更新——17 项新功能 + 20 多项修复。
这次最让我兴奋的是三件事:
- 1Codex 原生集成:OpenAI 的编码模型终于有了独立身份
- 2Active Memory 插件:AI 自动记住你说的话,不用再说"记住这个"
- 3macOS 本地 MLX 语音:语音对话不再依赖云端
另外,这次还做了一个所有 NAS 玩家都应该关注的事——全面加固浏览器和安全防御,之前在内网环境跑自动化脚本的漏洞基本都补上了。
让我逐个说。
一、Codex 原生集成:终于有了独立身份
以前的问题
OpenClaw 之前用 Codex 模型,走的是 OpenAI provider 的路子。这听起来没什么问题,但实际上是委屈了 Codex:
- 认证不独立
:复用了 OpenAI 的 API Key 体系,没有自己的 OAuth - 上下文管理混乱
:两套模型混用一个"管道",线程管理和上下文压缩都互相干扰 - 能力被阉割
:Codex 原生的会话线程管理、上下文压缩等能力完全用不上
简单说,就是让 F1 赛车跑了普通公路,还限速 60。
这次改了什么
2026.4.10 把 Codex 提升为独立的一等 Provider:
配置路径:models.providers.codex.* 认证方式:OAuth(不再依赖 OpenAI API Key) 专属能力:原生线程管理 + 上下文压缩(Compaction) 适用模型:codex/gpt-4.1、codex/gpt-5 配置了 Codex 之后,用 codex/gpt-4.1 这样的模型名,OpenClaw 会自动走 Codex 的认证流程。openai/gpt-* 的配置完全不受影响,升级无感。
适合谁用
如果你经常让 AI 做长周期的编码任务(比如维护一个项目、持续重构代码),Codex 的原生线程管理会让你感受到明显的差异:
上下文窗口更高效,不会动不动就爆 token 多轮对话的连贯性更好 长时间任务的稳定性提升
二、Active Memory:你的 AI 终于会"主动"记事了
以前有多烦
之前的记忆系统是个"被动工具":
你得说"记住这个" 你得说"搜索记忆" 你不说,它就当没听见
结果呢?日常聊天里大量有用的上下文都被漏掉了——"我下周去东京"、"我在找一款降噪耳机"、"我刚换了工作"……AI 全都没收到,下次还得重新说。
Active Memory 怎么工作
新插件在每次回复前,自动运行一个记忆 sub-agent,自动完成三个步骤:
用户发消息 ↓ Active Memory sub-agent 自动启动 ↓ 查询相关偏好、历史细节、最近上下文 ↓ 将召回的记忆注入主 Agent 上下文 ↓ 生成回复(带记忆加成) 支持三种模式,丰俭由人:
message | ||
recent | ||
full |
用 /verbose 观察召回过程
开启后,每条记忆被召回时你都能看到。适合调试和信任建立。
三、macOS 本地 MLX 语音:隐私敏感场景的救星
背景
之前的 Talk Mode(语音对话)依赖云端 TTS(比如 ElevenLabs),问题很明显:
- 延迟高
:网络往返一次几百毫秒 - 隐私顾虑
:对话内容要经过第三方服务器 - 网络依赖
:断网就歇菜
Apple Silicon 的 Mac 完全有能力在本地跑语音模型,OpenClaw 这次终于补上了。
MLX 是什么
MLX 是 Apple Silicon 的机器学习向量库,专门针对 Mac 优化。在 MacBook M1+ 上跑 MLX 语音模型,省电、速度快、隐私完全在本地。
这次 OpenClaw 新增了实验性 MLX TTS provider,支持:
离线语音对话 隐私敏感场景(医疗、法律、心理咨询等) 网络不稳定时自动回退到系统语音
四、安全大加固:这次动真格
这次另一个重头戏是全面的安全加固,有两个方向:
浏览器防御全面加固
SSRF 漏洞、hostname 白名单、交互驱动重定向、子帧防护……之前跑自动化脚本可能遇到的边角漏洞基本都修了。
⚠️ 升级注意事项:如果你有跑自动化浏览器脚本,特别是访问内网地址的场景,升级后建议测试一下现有工作流。
私有网络访问权限
新增配置项:
models.providers.*.request.allowPrivateNetwork 设为 true 后,OpenClaw 可以访问内网的 OpenAI 兼容端点(如自托管 vLLM、Ollama 等)。之前默认 SSRF 保护会阻止这类请求。
五、其他值得注意的更新
Teams 消息管理能力
现在支持 pin(置顶)、react(表情反应)、read(标记已读)消息了。Teams 渠道用户这次更新强烈建议升级。
私有网络模型访问
终于可以连接内网的 Ollama/vLLM 了,配合 NAS 上的本地模型,隐私+性能双保险。
Seedance 2.0 视频生成
内置 fal provider 支持 Seedance 2.0 模型,可以通过 OpenClaw 调用,参数包括 duration、resolution、audio、seed 等。
总结:这次更新值不值得升级?
值得升级的三个理由:
- 1Codex 用户:独立 provider 是刚需,升级后体验提升明显
- 2NAS + 私有模型玩家:私有网络访问 + 安全加固,内网自动化更安心
- 3隐私敏感用户:MLX 本地语音解决了一个长期痛点
观望的可以考虑:
Active Memory 是可选插件,先用 message模式试一下延迟影响再决定Teams 用户请升级,修复了很多已知 bug 浏览器自动化重度用户建议先在测试环境跑一遍
配图说明
神经大脑配图:展现 AI 记忆系统 编程代码配图:呼应 Codex 编码能力 安全盾牌配图:体现安全加固主题
■ END
夜雨聆风