引言
OpenClaw 又更新了!
2026年4月14日,OpenClaw 团队发布了 2026.4.14 版本。这次更新没有炫目的新功能,却是一次扎实的「质量版本」——50+ 项修复和改进,涵盖了 GPT-5.4 适配、Ollama 性能优化、安全加固等多个维度。
如果你正在用 OpenClaw 搭建 AI 工作流,这个版本值得认真关注。
1. GPT-5.4 全面适配:提前布局下一代模型
本次更新的重头戏,是对 GPT-5.4 系列模型 的全面适配。
1.1 前向兼容支持
OpenClaw 2026.4.14 添加了对 gpt-5.4-pro 的前向兼容支持,包括:
- Codex 定价和限额配置
:即使上游模型目录尚未更新,OpenClaw 也能正确识别和处理 GPT-5.4 的计费信息 - 列表和状态可见性
:在模型列表中提前显示 GPT-5.4 的状态 - Codex CLI 认证优化
:将认证文件诊断信息移至调试日志,保持交互输出的整洁
1.2 推理能力对齐
GitHub Copilot 用户也有好消息:
github-copilot/gpt-5.4现在支持 xhigh 推理 模式,与其他 GPT-5.4 系列模型保持一致 修复了 minimal thinking 到 OpenAI 低推理努力的映射问题,嵌入式运行不再因请求验证失败
1.3 运行时恢复机制
当遇到仅推理或空回复需要有限继续时,系统能够安全地重试,并在没有可见答案时提供降级方案。
这意味着即使模型返回异常响应,你的任务也能继续推进,而不是直接中断。
2. Ollama 用户福音:超时问题终于解决
如果你在用 Ollama 本地部署模型,这个版本解决了几个长期困扰:
2.1 流式超时修复
问题:本地 Ollama 运行慢时,经常因为默认流式超时而被切断。
解决:OpenClaw 现在将配置的嵌入式运行超时正确传递到全局 undici 流超时设置。慢速本地运行不再继承默认的流截断时间,而是使用你设置的实际超时值。
2.2 Token 计数准确性
问题:Ollama 流式完成的 Token 计数不准确,经常触发过早的压缩。
解决:现在正确发送 stream_options.include_usage,本地 Ollama 运行会报告真实使用量,而不是回退到虚假的提示 Token 计数。
2.3 会话记忆优化
LLM 支持的会话记忆 slug 生成现在会尊重显式的 agents.defaults.timeoutSeconds 覆盖,慢速 Ollama 运行不再静默回退到通用文件名。
3. 安全加固:更严格的访问控制
2026.4.14 版本在安全性上做了大量工作,以下是几个重点:
3.1 危险配置保护
Agent 网关工具现在会拒绝可能启用危险标志的 config.patch 和 config.apply 调用,包括:
dangerouslyDisableDeviceAuthallowInsecureAuthdangerouslyAllowHostHeaderOriginFallbackhooks.gmail.allowUnsafeExternalContenttools.exec.applyPatch.workspaceOnly: false
已启用的标志不受影响,非危险编辑仍能正常应用。
3.2 Slack 交互安全
Slack 频道的块操作和模态交互事件现在会应用全局 allowFrom 所有者白名单,并要求预期的发送者 ID 进行交叉验证。
3.3 附件路径安全
当本地附件路径无法通过 realpath 规范解析时,系统现在会失败关闭,而不是降级到非规范比较。这防止了潜在的目录遍历攻击。
3.4 AI 辅助的安全修复
多个安全修复采用了 AI 辅助审查:
心跳安全:强制对不受信任的 hook:wake系统事件进行所有者降级浏览器安全:在快照、截图和标签路由上强制执行 SSRF 策略 Microsoft Teams:在 SSO 登录调用上强制执行发送者白名单检查 配置安全:在配置快照中编辑 sourceConfig和runtimeConfig别名字段
4. 浏览器自动化:SSRF 防护与导航优化
浏览器工具在这个版本经历了重要的安全与功能平衡调整:
4.1 SSRF 策略优化
- 默认模式
:恢复主机名导航,同时保留显式严格模式的可访问性 - 本地 CDP 控制
:托管的本地 Chrome 就绪检查、状态探测和托管环回 CDP 控制可以绕过浏览器 SSRF 策略 - 严格模式保留
:显式的 browser.ssrfPolicy.allowPrivateNetwork: false配置会正确规范化为严格的标记,而不是静默放宽
4.2 远程类探测超时
本地仅附加的手动 CDP 配置文件现在可以在严格的默认策略和远程类探测超时设置下复用本地环回 CDP 控制平面。
5. 其他值得关注的改进
5.1 Telegram 论坛主题优化
从服务消息中学习人类主题名称,并在 Agent 上下文、提示元数据和插件钩子元数据中显示 学习的主题名称现在会持久化到 Telegram 会话 sidecar 存储,重启后仍能使用 隔离的心跳回复现在会保持在绑定的论坛主题上,而不是掉入群组根聊天
5.2 内存与嵌入优化
恢复内置的 Ollama 嵌入适配器,显式的 memorySearch.provider: "ollama"再次可用保留非 OpenAI 提供商前缀,代理支持的内存提供商不再因「未知内存嵌入提供商」而失败 将回忆的内存移至隐藏的「不受信任提示前缀」路径,而不是系统提示注入
5.3 调度与队列改进
修复了 cron 调度器在计算无有效未来槽位时的短重试问题 出站传递队列现在会持久化原始出站会话上下文,并在恢复时重放 自动回复队列按授权上下文(发送者 ID、所有者状态、exec/bash 提升覆盖)分割收集模式后续排空
5.4 UI 与体验
将 marked.js替换为markdown-it,防止恶意构造的 markdown 通过 ReDoS 冻结控制 UIDiscord 原生 /status交互现在返回真实状态卡片,而不是通用的「✅ Done.」确认语音通话媒体流正确处理受信任的转发头,用于每 IP 待连接限制
6. 升级建议
推荐升级场景
✅ 强烈建议升级:
使用 Ollama 本地部署的用户 需要 GPT-5.4 支持的用户 对安全性有较高要求的生产环境 遇到浏览器自动化或 Telegram 论坛主题问题的用户
⚠️ 可以考虑升级:
一般用户,当前版本运行稳定 依赖特定插件或自定义配置的用户(建议先测试)
升级命令
# 检查当前版本openclaw version# 执行升级openclaw update# 或重新安装openclaw doctor --repair升级后检查
# 验证版本openclaw version# 检查配置openclaw config get# 测试核心功能openclaw status总结
OpenClaw 2026.4.14 是一个典型的「质量版本」——没有颠覆性的新功能,却在稳定性、兼容性、安全性三个维度上做了扎实的改进。
对于开发者来说,GPT-5.4 的前向兼容意味着可以更早地测试和适配下一代模型;对于本地部署用户,Ollama 的超时修复解决了长期痛点;对于生产环境,安全加固让系统更加可靠。
夜雨聆风