版本概览
⚠️ 破坏性变更
Qwen Portal OAuth 下线
移除了已弃用的 qwen-portal-auth OAuth 集成(用于 portal.qwen.ai)。现在需要迁移到 Model Studio:
openclaw onboard --auth-choice modelstudio-api-key
配置迁移策略调整
自动配置迁移现在仅保留最近 2 个月的版本。超过 2 个月的旧版配置 key 将直接报错验证失败,不再自动重写。这是为了保持配置的清洁和可维护性。
PS. 现在看到这种破坏性更新就头大,大家更新记得做好备份。
✨ 核心亮点
xAI 全新集成
xAI provider 完成了重大升级:
Responses API 迁移:xAI provider 已迁移到 Responses API x_search 支持:新增 x_search功能,可以搜索 Grok 的实时信息自动启用插件:xAI 插件会根据 web-search和tool配置自动启用,无需手动切换Onboarding 集成:在 openclaw onboard和openclaw configure --section web时,可以选择配置 x_search
这意味着你可以直接用 Grok 进行实时网络搜索了!
MiniMax 图像生成
MiniMax 新增图像生成 provider,支持:
image-01模型文生图(generate) 图生图编辑(image-to-image) 宽高比控制
感谢 @liyuan97 的贡献!
MCP Channel 桥接
新增 Gateway 支持的 channel MCP 桥接:
Codex/Claude 可用的对话工具 Claude channel 通知 更安全的 stdio bridge 生命周期处理 支持重连和路由会话发现
这让 MCP 协议在 channel 层面的集成更加完善。
工具调用审批增强
Plugins/hooks 新增异步 requireApproval 功能:
before_tool_call钩子可以暂停工具执行通过弹窗、Telegram 按钮、Discord 交互或 /approve命令请求用户审批/approve命令现在同时支持 exec 和 plugin 审批
感谢 @vaclavbelak 和 @joshavant 的贡献!
🚀 新功能速览
ACP 增强
当前对话绑定:Discord、BlueBubbles、iMessage 支持 /acp spawn codex --bind here,将当前聊天变成 Codex 工作空间,无需创建子线程文档化了 chat surface、ACP session 和 runtime workspace 的区别
OpenAI Codex 增强
apply_patch默认启用图片分析功能修复,Codex 现在支持媒体理解
CLI 后端改进
Claude CLI、Codex CLI、Gemini CLI 推理默认值迁移到 plugin 表面 新增 bundled Gemini CLI 后端支持 gateway run --cli-backend-logs替代--claude-cli-logs(旧参数保持兼容)
Podman 简化
容器设置围绕当前 rootless 用户简化:
launch helper 安装到 ~/.local/bin文档化了 openclaw --container <name> ...工作流
文件上传统一
新增显式的 upload-file action:
Slack:支持文件名/标题/备注覆盖 Microsoft Teams 和 Google Chat:统一文件发送 BlueBubbles:通过 upload-file暴露文件发送(保留sendAttachment别名)
Matrix TTS
自动 TTS 回复现在发送为原生 Matrix 语音气泡,而非通用音频附件。
感谢 @Matthew19990919 的贡献!
🐛 重要修复
WhatsApp 自聊循环修复
修复了 WhatsApp 自聊 DM 模式下的无限回声循环问题——bot 发出的消息会被重新当作用户消息处理。感谢 @joelnishanth 的修复!
Telegram 消息分割
长消息分割现在在单词边界处断开,而不是从单词中间截断。
Google Gemini 3.1 支持
修复了 Gemini 3.1 pro/flash/flash-lite 在所有 Google provider 别名下的解析问题。
Discord 网关重连
解决了 Discord 重连时因 poisoned resume state 导致的死循环问题。现在会正确清理旧 socket 并强制全新重连。
📦 其他改进
安全审计扩展
Web search key 审计现在支持识别:
Gemini Grok/xAI Kimi Moonshot OpenRouter
速率限制冷却优化
按模型隔离速率限制冷却,一个模型的 429 不会阻塞同一 auth profile 下的其他模型 冷却阶梯改为 30s / 1min / 5min(而非之前的指数退避) 所有模型被限流时会显示倒计时消息
感谢 @kiranvk-2011 的贡献!
配置命令增强
新增 openclaw config schema 命令,打印 openclaw.json 的 JSON schema。
感谢 @kvokka 的贡献!
🎯 升级建议
Qwen 用户:如果你还在使用 qwen-portal-auth,请迁移到 Model Studio API key 方式xAI 用户:重新运行 openclaw onboard配置 x_search所有用户:建议更新以获得最新的安全修复和稳定性改进
完整更新日志:https://github.com/openclaw/openclaw/releases/tag/v2026.3.28
感谢所有贡献者:@pomelo-nwu, @huntharo, @liyuan97, @vaclavbelak, @joshavant, @Matthew19990919, @kvokka, @loveyana, @jared596, @afurm, @velvet-shark, @lakshyaag-tavily 等共 35+ 位贡献者!
夜雨聆风