乐于分享
好东西不私藏

OpenClaw v2026.5.10-beta.2 安全更新:add Telegram live PR evidenc…

OpenClaw v2026.5.10-beta.2 安全更新:add Telegram live PR evidenc…

OpenClaw 刚发布了 v2026.5.10-beta.2,这是一个预发布版本。这次更新不是单点小修,而是把 add Telegram live PR evidence automation with Convex-leased credentials 放到了更前面,同时又补了一批稳定性和边界能力。如果你已经在比较认真地使用 OpenClaw,这版很值得尽快看一遍。

1. add Telegram live PR evidence automation with Convex-leased credentials

这是本次更新最核心的一项变化,已经能明显看出 OpenClaw 在长期运行和能力沉淀上的推进。

2. add a Telegram desktop scenario builder that leases Crabbox

这项变化更偏可视化和可管理性,能提升你在真实使用中的可控感。

3. Discord/voice

这一部分更偏稳定性或安全边界补强,虽然不一定最显眼,但价值很高。

4. instructions so operators can append realtime voice style instructions while preserving OpenClaw’s built-in agent-consult guidance

这部分属于补强型更新,和主变化一起看,更容易理解这版为什么值得升级。

5. Discord/voice

这部分属于补强型更新,和主变化一起看,更容易理解这版为什么值得升级。

这次更新主要集中在哪些方向

  • • Control UI
  • • 安全与执行
  • • 插件与扩展

适合谁尽快了解

适合正在重度使用 OpenClaw、关注长期记忆体系、控制台管理能力与真实环境稳定性的用户尽快了解。

你可以先重点留意的关键词

  • • Control UI
  • • 安全与执行

中文整理稿

openclaw 2026.5.10-beta.2

  • • 仓库:openclaw/openclaw
  • • 标签:v2026.5.10-beta.2
  • • 类型:预发布版本
  • • 发布时间:2026-05-10T18:18:58Z
  • • 原文链接:https://github.com/openclaw/openclaw/releases/tag/v2026.5.10-beta.2

功能更新

QA/Mantis:Telegram 自动化 PR 证据采集

新增 Telegram 实时 PR 证据自动化功能,使用 Convex 授权凭证,支持 Crabbox 转录捕获、动态 GIF 预览和内联 PR 评论。

QA/Mantis:Telegram Desktop 场景构建器

新增 Telegram Desktop 场景构建器,可租用 Crabbox、安装原生 Telegram Desktop、配置 OpenClaw Telegram Gateway(使用授权机器人凭证),并录制 VNC 截图/视频产物。

Discord/Voice:实时语音诊断

新增实时语音诊断功能,覆盖话轮切换、播放重置、打断检测和音频截断分析。

Talk:实时语音指令扩展

新增 talk.realtime.instructions 配置项,运营商可在保留 OpenClaw 内置 Agent 咨询引导的同时,追加实时语音风格指令。(#79081)感谢 @VACInc。

Discord/Voice:opusscript 解码器默认化

默认测试和源码安装使用纯 JS 的 opusscript 解码器,跳过可选的原生 @discordjs/opus 构建,避免在非专用语音性能通道之外触发缓慢的原生插件编译。

Discord/Voice:原生 opus 可选安装脚本

新增可选的原生 @discordjs/opus 安装脚本和首选项,供实时语音性能通道使用,不影响其他 Docker/测试环境。

Gateway/Skills:私有 Skill 压缩包安装路径

新增可选的私有 Skill 压缩包上传安装路径,由 skills.install.allowUploadedArchives 控制开关,仅在运营商明确启用代码安装面时,受信任的 Gateway 客户端方可上传并安装 zip 格式的 Skill。(#74430)感谢 @samzong。

依赖更新

刷新工作区依赖版本,包括:ACPX @agentclientprotocol/claude-agent-acp0.33.1、Codex ACP 0.14.0、Baileys 7.0.0-rc10、Google GenAI 2.0.1、OpenAI 6.37.0、AWS SDK 3.1045.0、Kysely 0.29.0、Tlon skill 0.3.6、Aimock 1.19.5 和 tsdown 0.22.0

Agents/Compaction:会话引用隔离

保持嵌入式压缩和回合后运行时上下文中作用域内后台 exec/process 会话的引用,避免泄露来自无关作用域的会话。修复 #79284。(#79307)感谢 @TurboTheTurtle。

CLI/Onboarding:命令引导体验优化

改进 setup、onboarding、configure 和 channel 命令的引导流程,让终端交互说明下一步有用的命令,而非依赖简短标签。优化新用户体验。

Agents/Codex:移除动态工具配置

移除 Codex 可配置的动态工具配置文件,让 Codex app-server 始终拥有 workspace、edit、patch、exec、process 和 plan 工具,OpenClaw 集成工具保持可用。


问题修复

Telegram:媒体路径隔离

修复跨 Agent 访问问题,将 Agent 作用域的媒体根路径通过 Gateway 消息操作传递,避免活跃 Agent 的工作区本地媒体被误判为跨 Agent 访问。感谢 @frankekn。

CLI/Gateway:状态检查插件感知

保持 gateway status --deep 的插件感知,确保配置警告(包括缺失的渠道配置元数据)在安装和更新冒烟测试期间保持可见。

ACPX:后端启动探测

默认运行并等待嵌入式 ACP 后端启动探测完成,使 Gateway ready 信号不再在 ACPX 运行时可用或探测失败前触发;设置 OPENCLAW_ACPX_RUNTIME_STARTUP_PROBE=0 可恢复延迟启动。修复 #79596。感谢 @bzelones。

OpenAI 兼容模型:清除历史推理字段

默认从重放聊天历史中清除先前的 assistant reasoning 字段,防止 oMLX/vLLM Qwen 后续轮次因过时的 reasoning 载荷而被拒绝或卡顿。修复 #46637。感谢 @zipzagster 和 @lexhoefsloot。

CLI/Onboarding:上下文窗口修复

为非 Azure 自定义提供商生成安全的上下文窗口,修复旧版 4k 向导条目,防止覆盖显式有效的小模型限制,避免首轮压缩循环。修复 #79428。(#79911)感谢 @Jefsky。

OpenAI 兼容模型:严格消息字段过滤

新增 compat.strictMessageKeys 选项,将聊天补全重放消息精简为 role 和 content,兼容严格拒绝 OpenAI 风格工具和元数据键的提供商。修复 #50374。感谢 @choutos。

Voice/Ollama:工具列表尊重路由配置

路由语音 Agent 的 tools.allow 规则现在在经典嵌入式语音响应中正确生效(包括空白名单),确保无工具 Ollama Agent 不会收到工具 schema。修复 #79506。感谢 @donkeykong91。

Gateway:配置热重载

修复 SIGUSR1 重启后重用过期启动快照、丢弃启动后写入配置的问题,改为从磁盘重新读取配置。修复 #79947。感谢 @TheLevti。

Agents:流建立期间空闲看门狗

在提供商流建立仍处于等待状态时应用 LLM 空闲看门狗,防止静默的流前模型挂起耗尽完整 Agent 超时。

Cron:隔离自清理运行

允许隔离的自清理运行检查自身的任务运行历史,同时阻止其他 Cron 任务和变更操作。修复 #80019。感谢 @hclsys。

CLI/Config:默认值持久化

将等于运行时默认值的显式 config set 和 config patch 值持久化,而非报告成功但丢弃它们。修复 #79856。(#80106)感谢 @abodanty 和 @hclsys。

OpenAI/Realtime Voice:事件别名兼容

接受 Codex 兼容的旧版音频和转录事件别名,防止提供商协议漂移导致 assistant 音频或字幕被丢弃。

Discord/Voice:播放控制优化

防止默认 Agent 代理实时会话在强制 OpenClaw 咨询答案前自动播放填充内容;实时响应完成后完成 Discord 播放;将后续精确语音答案排队等待播放空闲,避免中途替换。

Gateway:会话终止错误响应

对格式错误的会话终止 HTTP 路径返回确定的 400 invalid_request_error 响应,防止路由形状的请求落入后续 Gateway 处理器。(#72439)感谢 @rubencu。

Control UI:PWA 资源服务

从 /__openclaw__/ SPA 路由提供根 PWA 和 favicon 资源,使标签图标、安装元数据和服务工作者在内部导航后不再 404。修复 #80072。感谢 @CodeNovice2017。

OpenAI/Realtime Voice:中断控制本地生效

本地遵守禁用的输入音频中断设置,防止运营商设置 interruptResponseOnInputAudio: false 后服务端 VAD 语音开始事件清除 Discord 播放。

Telegram:静默无响应 DM

无响应 DM 回合保持静默,不将其改写为可见的静默回复。修复 #78188。(#78228)感谢 @Beandon13。

Telegram:选择按钮回调处理

在原始回调回退之前处理托管选择按钮回调,同时保留包含分隔符的选项值(如 env|prod)。(#79816)感谢 @moeedahmed。

OpenAI 兼容模型:流式 JSON 处理

正确处理流式请求返回的 JSON 聊天补全响应体,保留 reasoning 字段和可见文本,而非完成空 Agent 轮次。修复 #77870。

Discord/Models:模型选择器交互延迟

在加载路由、模型和偏好数据之前延迟模型选择器组件交互,防止 Gateway 高负载下出现”此交互失败”超时。修复 #77283。感谢 @colin-chang。

xAI:Grok 推理粒度控制

为支持推理的 Grok 模型开放 /think low|medium|high,在原生 Responses 载荷上保留 reasoning.effort,同时为非推理路由保持仅关闭行为。修复 #79210。感谢 @colinmcintosh。

CLI/Media:图像描述模型引用

允许显式图像描述模型引用使用绑定的静态提供商目录和通用模型图像钩子,使 openclaw infer image describe --model zai/glm-4.6v 与直接模型运行行为一致,Anthropic 认证探测避免过时的 Claude 3 Haiku 目录条目。

Models/Anthropic:Haiku 4/5 默认模型

在配置了 Anthropic 默认模型时,将 anthropic/claude-haiku-4-5 添加到 Anthropic API 密钥 Agent 允许列表默认值,使 Cron 模型覆盖可以选中当前 Haiku 别名。修复 #78000。

Agents/Anthropic 兼容模型:推理块清理

为明确声明 supportsReasoningEffort: false 的自定义 Anthropic 兼容模型剥离重放的 thinking 块,防止 Kimi 兼容提供商重新发送不支持的 thinking 内容。修复 #47452。

Browser:Chrome MCP 探测超时

为现有会话 Chrome MCP 状态和非深度 doctor 探测增加等待时间,防止慢速首次附加错误报告离线,同时保持原始 CDP 状态探测简短。(#77473)感谢 @rubencu。

Gateway/Logging:控制台捕获时机

在前景 Gateway 快速路径解析之前安装控制台捕获,即使在详细模式下也抑制已知 libsignal 会话转储,防止终端日志打印 WhatsApp 会话密钥材料。(#76306)感谢 @rubencu。

Exec Approvals:列表性能

保持 exec.approval.list 使用轻量级策略摘要路径,列出待批准项不再加载丰富的 tree-sitter 命令解释器。(#76943)感谢 @rubencu。

Agents:工具调用失败警告

当 exec/bash 工具调用在助手声称成功后失败时,显示简洁的默认可见警告,同时保持原始 stderr 隐藏(除非启用详细详情)。修复 #60497。(#80003)感谢 @jbetala7。

Agents:空工具名防护

在调度前停止空白模型发出的工具调用,同时保留基于 ID 的工具名恢复,防止 Kimi/NVIDIA 空白名重试循环而不创建可调用的 _blank 哨兵。修复 #34129。(#56391)感谢 @smartchainark。

Agents/Telegram:最终答案去重

交付规范的最终助手答案,而非重放累积的预工具文本块,防止重复 Telegram 回复和原始工具输出片段泄露到聊天投递。修复 #79621 和 #79986。感谢 @nonzeroclaw 和 @dudaefj。

Auto-reply/TUI:超时恢复递送

在主要模型生命周期错误后保持回退超时恢复可递送,方法是发出回退进度并在恢复有机会完成前延迟终端 TUI 错误。修复 #80000。(#80009)感谢 @TurboTheTurtle。

CLI/Agent:后端范围模型选择

允许 openclaw agent --model 使用后端/管理员 Gateway 范围,而不受缓存设备令牌范围静默降级的请求。(#78837)感谢 @VACInc。

CLI/Help:命令文本改进

保持 help 和 version 调用无配置依赖,同时改进共享端口、渠道、插件、任务、会话、消息、配对和认证恢复的说明文字。

CLI/Config:JSON 解析错误说明

用有效示例解释严格 JSON 解析失败,并提供纯字符串转义方案。

CLI/Secrets:脱机 Gateway 重载错误处理

将脱机 Gateway 重载失败转化为可操作的恢复文本。

CLI/Channels:渠道选择说明

解释缺失或模糊的渠道选择,并给出后续命令建议。

CLI/Channels:状态收集时机

将引导式渠道状态收集推迟到选择渠道之后,保持 openclaw channels add 首屏更安静。

Plugins/CLI:禁用命令根路由

将禁用的 Matrix 和 LanceDB 内存命令根路由到插件启用指导,而非通用未知命令错误。

Browser/Docker:Playwright Chromium 检测

从 PLAYWRIGHT_BROWSERS_PATH 和 Linux 默认 Playwright 缓存检测 Playwright 管理的 Chromium,使持久化 /home/node/.cache/ms-playwright 的 Docker 安装无需设置 browser.executablePath

Ollama:DeepSeek V4 云模型推理保持

即使 Ollama Cloud /api/show 省略 thinking 能力也保持 DeepSeek V4 云模型支持推理,使 /think high 不再拒绝 ollama/deepseek-v4-*:cloud

ACPX/Claude ACP:前台提示等待机制

在自主任务通知结果到达同一会话期间,保持前台提示等待自身结果;针对 Claude Agent ACP 0.33.1 重新定位补丁。

WhatsApp:Baileys 媒体上传

在 Baileys 7.0.0-rc10 中阻止非 Dispatcher Agent 传递媒体上传到 undici,并修补绑定的 Baileys 声明以使最新 tsdown 构建保持无警告。

Build:tsdown 0.22.0 无警告

通过外部化已知第三方声明边缘并用显式内置渠道字段替换相对渠道配置模块增强,保持 tsdown 0.22.0 无警告构建。

ACP Sessions:运行时选项映射

将规范运行时选项映射到后端通告的 ACP 配置键(如 Claude 的 effort),同时保持持久化 OpenClaw 状态规范。(#79926)感谢 @InTheCloudDan。

Models/Discord:Provider 通配符支持

在 agents.defaults.models 中支持 provider/* 条目,使 /model/models 和模型选择器可以为选定提供商显示动态发现的模型,无需精确模型允许列表。修复 #79485。感谢 @rendrag-git。

Gateway/Watch:重建缺失产物

从源码检出启动 Gateway 前重建或重新阶段缺失的绑定插件 dist 和运行时 postbuild 产物,防止不完整的 watch 模式运行时树。(#70805)感谢 @rubencu。

CLI/Update:健康检查和版本报告

允许自更新期间从前一个网关协议进行重启健康检查,使插件 dry-run 报告精确的 npm 目标版本而非 unknown,同时保持状态不变。

OpenAI/Codex:OAuth 配置文件转发

在规范 openai/* 迁移后将持久化的 openai-codex OAuth 配置文件元数据转发到 Codex 插件尝试,使纯 OAuth 安装继续使用原生 Codex 认证而非直接 OpenAI API 密钥认证回退。修复 #79978。

OpenAI/Codex:文档和错误修复

将网关缺失密钥恢复和向导文档指向规范 openai/gpt-5.5 加 Codex OAuth 路径,修复轨迹导出错误以建议有效的 openclaw sessions 命令。

Google/Gemini:模型引用规范化

在配置加载和不相关配置写入期间规范化已停用的 google/gemini-3-pro-preview 主用、备用和模型映射引用,使保存的配置继续以 Gemini 3.1 Pro Preview 为目标。

Google/Gemini:提供商配置输出规范化

在发出的 Google 提供商模型配置中规范化已停用的 Gemini 3 Pro Preview ID,使重新生成的 models.json 行测试 google/gemini-3.1-pro-preview

Google/Gemini:已保存配置规范化

规范化从现有合并 models.json 提供商保留的已停用 Gemini 3 Pro Preview ID,使配置发出继续以 google/gemini-3.1-pro-preview 为目标。

GitHub Copilot:令牌身份一致性

使用与运行时请求相同的 vscode-chat 集成身份生成短生命周期 Copilot API 令牌,并刷新缺少该身份的旧缓存令牌,使图像适配 Copilot 模型不再继承 copilot-language-server 范围。修复 #79946、#80074。感谢 @TurboTheTurtle。

Plugins/Doctor:npm 注册表清理

当 openclaw doctor --fix 移除阴影绑定插件的 npm 包时删除过时的托管 npm 安装记录,使重建的注册表不再复活已移除的包元数据。

Discord/Voice:实时咨询工具调用复用/抑制

复用或抑制晚期实时咨询工具调用,不抢夺更新的说话者上下文或两次说出强制回退答案。

Discord/Voice:部分语音片段跳过

跳过可能不完整的实时强制咨询转录片段和无意义的收尾,防止陈旧的部分语音在下一轮排队延迟答案。

Discord/Voice:播放时间戳合成

从发出的 Discord PCM 合成实时播放时间戳,使 OpenAI 实时打断截断不再看到 audioEndMs=0 并跳过合法中断。

Plugin SDK:链接插件运行时门面

当禁用绑定插件回退时保持激活的链接插件运行时门面可加载。感谢 @shakkernerd。

Feishu:话题内自动回复

当活跃会话为 group_topic 或 group_topic_sender 时,在话题内自动线程化 message(action="send") 回复,并通过文本、卡片和媒体出站适配器传播 replyInThread,使话题作用域会话不再发布到群组根目录。修复 #74903。(#77151)感谢 @ai-hpc。

WhatsApp:语音笔记转录路由

将路由上下文传递到语音笔记转录回显预检,使回显转录可以投递到发起聊天。修复 #79778。(#79788)感谢 @hclsys。

Cron/Failover:错误分类和重试

将结构化 OpenAI 兼容 server_error 载荷分类为 server_error,在 Cron 状态中暴露该原因,并让一次性 Cron 重试策略遵守 retryOn: ["server_error"] 而无需原始 5xx 文本。(#45594)感谢 @clovericbot。

Slack:线程会话唤醒

在交互式回复按钮/选择点击后唤醒已解析的线程会话,并通过排队交互事件携带 Slack 投递上下文,使点击继续可见对话。修复 #79676 和 #61502。(#79836)感谢 @velvet-shark、@tianxiaochannel-oss88 和 @Saicheg。

WhatsApp/Streaming:增量文本发送

仅在文本结束块回复跨工具调用循环重复先前导言时发送新后缀,防止累积 WhatsApp 导言消息。修复 #78946。(#79120)感谢 @brokemac79 和 @papawattu。

Tests/Security Audit:测试用例隔离

将 audit-exec-surface.test.ts 沙箱化到每个案例的 OpenClaw 主目录 tempdir 下,重定向 OPENCLAW_HOME(在 resolveRawHomeDir 中优于 HOME/USERPROFILE)以及 HOME 和 USERPROFILE,使其 saveExecApprovals(...) 调用永远不会触及运行套件的主机的真实 ~/.openclaw/exec-approvals.json。(#79885)感谢 @omarshahine。

ACP/Gateway:错误链保留

在生命周期边界保留 AcpRuntimeError 原因链(code/method/JSON-RPC detail),使网关日志、电报回复和工具结果文本显示实际上游失败而非模糊的 Internal error/[object Object],在链到达日志或回复表面前应用脱敏。

Channels/iMessage:回复附件支持

当已安装的 imsg 构建通告该能力时(通过 imsg send-rich --help 探测一次并缓存在私有 API 状态),通过 imsg send-rich --file 发送 action: "reply" 附件。回复现在通过共享出站解析器水合 media/mediaUrl/fileUrl/mediaUrls[0]/filePath/path/base64 buffer+filename,通过现有 withTempFile 助手暂存缓冲区,拒绝带有针对性错误的 http(s):// URL 附件,并将回退到旧 imsg 构建上的显式 imsg#114 not landed yet 错误。(#79864)感谢 @omarshahine。

Telegram:预览防抖保持

在追加真实部分流增量时保持首次预览防抖,使编辑后的草稿预览不再在提供商发出增量输出时复制早期文本。(#80045)感谢 @TurboTheTurtle。

Agents/Anthropic:上下文窗口 1M 报告

为 Claude Opus/Sonnet 4 模型报告 1M 会话上下文,即使本地模型配置仍通告 200k,匹配模型发现并防止过早的状态/UI 溢出。修复 #66766。

Models/OpenRouter:缺失认证行隐藏

当直接提供商行仅由嵌套 OpenRouter 模型 ID(如 openrouter/google/...)重复时,在 /model status 中隐藏缺失认证的直接提供商行,同时保留显式配置的直接提供商。修复 #62317。

Models:Provider/模型保留

当另一提供商拥有相同裸模型别名时,保留显式选择的 provider/model(如 opencode-go/deepseek-v4-pro)。修复 #79325。

Models/Config:错误消息改进

当模型仅存在于 agents.defaults.models 而非 models.providers.<provider>.models[] 中时,解释缺失的提供商模型注册,而非返回裸未知模型错误。修复 #80089。

MCP/Tools:数字开头工具名前缀

为以数字开头的捆绑 MCP 服务器/工具片段添加前缀,保持生成的工具名对 Moonshot/Kimi 和其他严格提供商有效。修复 #79179。

Models/OpenRouter:预算超限处理

将 403 API key budget limit exceeded 视为计费问题,使模型回退推进而非重试耗尽的主要模型。修复 #60191。感谢 @omgitsgela。

Models/OpenRouter:会话覆盖修复

修复丢失了外部 openrouter/ 提供商包装器的陈旧会话覆盖,使会话返回配置的 OpenRouter 模型而非作为未知直接提供商模型失败。修复 #78161。感谢 @hjamal7-bit。

Google/Gemini:默认模型回退

将 API 密钥入职默认回退到 google/gemini-3.1-pro-preview,使新的 Gemini 测试配置使用 Gemini 3.1 Pro Preview。

Telegram:完整模型标签显示

在模型选择器中显示嵌套 OpenRouter 模型 ID 的完整 provider/model 标签,使 openrouter/openai/gpt-5.4-mini 不再显示为 openai/gpt-5.4-mini。修复 #67792。(#72752)感谢 @iot2edge。

Models/OpenRouter:参数支持元数据保留

保留实时的 supported_parameters 工具支持元数据,使非工具 Perplexity Sonar 模型不再不必要地接收 Agent 工具载荷并回退。修复 #64175。感谢 @Catfish-75。

Models/OpenRouter:MoonshotAI Kimi K2.5 添加

将 MoonshotAI Kimi K2.5 添加到绑定的 OpenRouter 目录,使入职/模型选择器可以提供它而无需等待实时发现。修复 #14601。

Models/OpenRouter:认证配置文件可见性

保持 keyRef/tokenRef 支持的认证配置文件对只读 PI 模型发现可见,使 OpenRouter 模型在模型选择器中保持可用,而无需存储明文密钥。修复 #58106。感谢 @ThalynLabs。

Models/List:显式和只读行包含

在默认配置视图中包含显式配置提供商行和只读认证支持目录行,而非加载 PI 的完整注册表,保持 Control UI 选择器与可用模型对齐。Refs #79381。感谢 @ismael-81。

Security/Audit:按提供商拒绝处理

在报告小模型网络/浏览器暴露时遵守 tools.byProvider["provider/model"].deny,使按模型的 OpenRouter 缓解措施清除 models.small_params 暴露信号。修复 #80118。

Models/Moonshot:别名支持

接受直接 moonshotai/... 和 moonshot-ai/... 引用作为规范 moonshot/... 的别名,使复制的 OpenRouter Kimi ID 不再作为未知直接模型失败。修复 #73876。(#74946)感谢 @jeffrey701。

Kimi Code:API 模型 ID 规范化

在绑定目录、入职和文档中使用 Kimi 稳定的 kimi-for-coding API 模型 ID,同时规范化传统 kimi-code 和 k2p5 引用。修复 #79965。

Volcengine/Kimi:工具 schema 约束精简

为直接和编码计划模型剥离提供商不支持的工具 schema 长度和项约束关键字,使托管 Kimi 运行不再拒绝带有 minLength 的消息工具。修复 #38817。

DeepSeek:V4 推理内容回填

为非自有 OpenAI 兼容代理提供商回填 V4 reasoning_content 重放字段,防止后续请求失败(超出绑定 DeepSeek 和 OpenRouter 路由)。修复 #79608。

iMessage:断开连接警告

当操作因 imsg 私有 API 桥未附加而被阻止时发出 WARN 日志,使运营商在 ~/.openclaw/logs/openclaw.log 中看到静默丢弃而非读取每个会话轨迹 JSONL tool.result 载荷。网关重启从 Messages.app 取消注入 dylib 后常见。(#80035)感谢 @omarshahine。

Codex:会话 ID 回填

在 schema 验证前交叉填充缺失的 thread.id 和 thread.sessionId,使省略 sessionId 的实时 Codex app-server 响应不再在 thread/start 或 thread/resume 上失败。修复 #80124。(#80137)感谢 @kagura-agent。

原始发布链接

  • • GitHub Releases:https://github.com/openclaw/openclaw/releases/tag/v2026.5.10-beta.2