说实话,OpenClaw 这次更新来得有点低调,但仔细看 Release Note,你会发现这是一波「润物细无声」的改进——尤其是对 GPT-5 系列模型的支持优化,以及模型轮次控制的精细化改进。
🎯 GPT-5 家族:从「能用」到「好用」
这次更新最值得关注的就是对 GPT-5 系列的全面支持优化。
新增 GPT-5.4 Pro 前瞻支持
OpenClaw 现在可以提前适配 GPT-5.4 Pro 模型,包括 Codex 的定价和限制配置。这意味着当 OpenAI 正式发布 GPT-5.4 Pro 时,你不需要等待 OpenClaw 更新就能直接用上。
GitHub Copilot 也能用 GPT-5.4 的深度思考
之前用 Copilot 的 GPT-5.4 模型时,深度思考模式(xhigh reasoning)是被锁定的。这次更新放开了这个限制,Copilot 用户终于可以完整体验 GPT-5.4 的推理能力了。
Codex 模型别名规范化
OpenClaw 修复了一个历史遗留问题——Codex 模型的运行时别名现在会正确映射到标准名称,同时保留你自定义的配置覆盖。简单说就是:配置更稳定,不会因为别名问题导致模型加载失败。
🔄 显式轮次控制:让模型调用更可控
这次更新的另一个重点是「显式轮次改进」(explicit turn improvements)。
什么是显式轮次?
在多轮对话中,模型需要知道「现在是第几轮」、「该谁说话了」。显式轮次控制就是让这个过程更透明、更可控。
这次改进了什么?
OpenAI 最小思考模式映射:当使用 minimal thinking 时,OpenClaw 会正确映射到 OpenAI 支持的 low reasoning effort,避免请求被模型拒绝。 GPT 风格运行的容错恢复:当遇到 reasoning-only 或空轮次需要继续时,OpenClaw 现在能安全地恢复运行,不会因为边界情况而中断。 工具调用的重试逻辑优化:流式工具调用时的重试机制更智能,不会因为工具名称不完整就重置重试计数。
这些改进对普通用户可能感知不强,但对需要稳定运行 Agent 任务的场景来说,意味着更少的意外中断和更可控的行为。
🔧 本地模型用户的福音
如果你用 Ollama 跑本地模型,这次更新有几项改进值得关注:
流式完成的用量统计
Ollama 现在会正确报告流式完成的 token 用量,不会再出现「用量统计异常导致提前压缩」的问题。
超时配置真正生效
之前配置的 embedded-run 超时时间会被默认的流式超时覆盖,导致本地模型运行被意外切断。现在你的超时配置会正确传递给底层连接。
内存嵌入恢复
Ollama 的内存嵌入适配器被重新加回核心模块,显式配置 memorySearch.provider: "ollama" 又能正常工作了。
🛡️ 安全加固:细节见真章
这次更新还包含多项安全改进:
危险配置保护:模型无法通过 gateway 工具启用被安全审计标记的危险配置项(如禁用设备认证、允许不安全内容等)。 Slack 交互验证:Slack 的交互事件现在会严格执行 allowlist 检查,防止绕过验证。 浏览器 SSRF 策略:快照、截图等浏览器操作现在强制执行 SSRF 策略,防止恶意请求。 附件路径规范化:本地附件路径解析失败时会「安全失败」,不会降级到非规范化检查。
💡 写在最后
OpenClaw v2026.4.14 没有惊天动地的新功能,但每一项改进都切中了实际使用中的痛点——GPT-5 的前瞻支持让你不用等更新、显式轮次控制让 Agent 运行更稳定、本地模型的修复让自托管更可靠。
这种「润物细无声」的迭代,恰恰是成熟项目该有的样子。
夜雨聆风