OpenClaw v2026.4.23:生产链路补强
OpenClaw v2026.4.23:这次更新,重点不是更多功能,而是更能实战
这版最大的价值,是把图像生成、GPT-5.5 接入、Codex 路由、Memory、媒体稳定性和安全边界一起推到了更接近生产可用的状态。
v2026.4.23 = 图像生成能力大补强 + GPT-5.5 接入正规化 + Codex 更顺 + Memory 更生产化 + 聊天媒体链路更稳 + 安全边界明显收紧。
这次 bundled Pi packages 升级到 0.70.0,OpenClaw 开始使用 Pi 上游的 gpt-5.5 catalog metadata 来处理 OpenAI 和 OpenAI Codex。
这意味着 OpenAI / Codex 模型识别更标准,GPT-5.5 路由行为更稳定,后续兼容性更好。本地只保留 gpt-5.5-pro 的必要 forward-compat 处理,不再靠大量本地魔改维持模型兼容。
2. GPT Images 2.0 / gpt-image-2 链路开始进入可用状态
这版加入了 OpenAI 图像生成和参考图编辑能力。openai/gpt-image-2 可以通过 Codex OAuth 使用,不再强依赖 OPENAI_API_KEY,并支持图像生成与 reference-image editing。
这意味着 OpenClaw 的内容生产链路不再只是“能聊”,而是越来越像一个完整创作系统。
3. OpenRouter 图像模型也接入 image_generate
OpenRouter 这次也接入了 image_generate,支持 image generation 和 reference-image editing。对 Agent 来说,这很重要:以后不是某个模型单独能画图,而是整个工具路由开始统一。
sessions_spawn 新增可选 forked context。默认仍然保持干净隔离,但当子代理确实需要继承当前上下文时,现在可以自然接上。
5. 长生成任务终于可以单次调 timeoutMs
图像、视频、音乐、TTS 生成工具都支持单次调用级 timeoutMs。普通任务不用全局拉长超时,慢图、长音频、视频生成可以单独放宽。
memorySearch.local.contextSize 可配置,默认 4096;Memory CLI 显式声明 local embedding provider;durable root memory 继续收敛到 MEMORY.md;openclaw doctor –fix 可以合并 split-brain memory 文件;dreaming 从 heartbeat 解耦,改成独立轻量 agent turn。
request_user_input 会正确回到原聊天;queued follow-up answers 会被保留;block streaming 不再重复发送最终回复;WebChat 能展示 billing / auth / rate-limit 等不可重试错误;text-only 主模型不会悄悄丢图片附件;Control UI / WebChat 历史刷新后仍能看到生成图片;OpenRouter 多模态 vision 输出恢复正常。
这版还有一整轮 fail-closed 安全硬化,覆盖 gateway config apply、webhook secret reload、mobile pairing、Teams、Discord、QQ、Plugins、Approvals、setup paths 等关键入口。
1. 跑一次 image_generate,验证 gpt-image-2 或 OpenRouter 图像模型是否可用。
2. 检查 GPT-5.5 与 Codex 模型列表和路由是否正常识别。
3. 做一次参考图编辑,确认多参考图 edits 是否恢复。
4. 在真实多代理任务里测试 sessions_spawn forked context。
5. 给慢图像或 TTS 任务显式加 timeoutMs。
6. 跑一次 openclaw memory status / search / doctor –fix。
v2026.4.23 真正值钱的地方,不是 changelog 很长,而是 OpenClaw 的几条核心生产链路——作图、GPT-5.5 接入、Codex、Memory、媒体、错误处理、安全边界——终于一起更像一个可规模化运行的系统。