乐于分享
好东西不私藏

OpenClaw本周动态:3.7/3.8/3.11/3.12版本连更,安全漏洞全修复

OpenClaw本周动态:3.7/3.8/3.11/3.12版本连更,安全漏洞全修复

OpenClaw本周动态:3.7/3.8/3.11/3.12版本连更,安全漏洞全修复

2026年3月7日至14日,OpenClaw开启了"日更级"狂飙模式,连续发布v2026.3.7、v2026.3.8、v2026.3.11、v2026.3.12四个版本,累计6项重大更新、40+项重要修复、10+项安全修复。

这不是简单的版本迭代,而是OpenClaw从"能跑"向"好用"、"耐造"、"安全"的关键转折。

核心突破:ContextEngine插件接口

开发者等了半年的"灵魂接口"终于来了。

痛点回顾:

  • 对话轮次一多,token就爆炸
  • 信息一压缩,关键细节就丢失
  • 想改逻辑就要动核心代码,风险极高

解决方案:

OpenClaw开放了一整套生命周期钩子:

  • bootstrap - 初始化
  • ingest- 信息注入
  • assemble - 内容组装
  • compact - 智能压缩
  • afterTurn - 回合后处理
  • prepareSubagentSpawn - 子智能体生成前
  • onSubagentEnded - 子智能体结束后

这意味着什么?

  • 想接入RAG?装个插件就行
  • 想换压缩算法?配置一下即可
  • 想给不同任务隔离记忆空间?接口都预留好了

正如一位开发者在Issues下的留言:"等这个接口等了快半年",点赞瞬间破百。

GPT-5.4 + Gemini 3.1双引擎首发

新版第一时间适配了OpenAI最新的GPT-5.4和Google的Gemini 3.1 Flash。

更关键的是自动降级机制

  • 模型限流时→自动切换备选
  • 服务过载时→无缝切换
  • 全程不中断→用户无感知

你可以把OpenClaw想象成一个"AI模型路由器":前端对接日常聊天工具,后端灵活挂载Claude、GPT、Gemini、DeepSeek等任意大模型。哪个好用用哪个,哪个便宜切哪个。

UI大翻新:全新Gateway Dashboard

3.12版本带来了V2级别的控制界面重构:

模块化视图设计:

  • 概览视图:查看Gateway整体状态
  • 聊天视图:管理AI对话
  • 配置视图:编辑配置
  • Agent视图:管理Agent
  • Session视图:查看会话状态

新增功能:

  • 命令面板(Command Palette):快速访问所有功能
  • 移动端底部标签栏:更好的触控体验
  • 丰富的聊天工具:斜杠命令、搜索、导出、置顶消息

Fast Mode快速模式统一

OpenAI/GPT-5.4现在支持可配置的session级fast toggle,这个开关不仅能在/fast命令里使用,也打通到了TUI、Control UI和ACP,并且支持按模型设置默认值,还配套了OpenAI/Codex的请求整形逻辑。

Anthropic/Claude侧也接入了同一套fast模式控制,并把params.fastMode映射到Anthropic API的service_tier请求,同时支持对Anthropic和OpenAI的fast-mode层级进行实时校验。

这背后体现出的,不只是"快一点"的体验优化,而是OpenClaw试图把不同模型厂商原本割裂的性能档位、服务等级和调用参数,统一抽象成一套用户可理解、可切换的系统级能力。

Provider Plugin架构模块化

Ollama、vLLM和SGLang被迁移到provider-plugin架构。

官方描述非常明确:这三类模型提供方现在由provider自己负责onboarding、discovery、model-picker setup,以及用户选型后的后置钩子处理。这意味着OpenClaw核心层不再承担过多"每接一个模型后端就写一套硬编码逻辑"的职责,而是把能力逐步下放到插件层。

这一步非常关键,因为它直接关系到OpenClaw后面还能不能继续高速扩展。过去,AI工具最容易陷入的一个问题,就是每多接一个提供方,核心代码就更臃肿一层,最终变成"模型兼容性黑洞"。OpenClaw这次把Ollama、vLLM、SGLang先迁进去,等于是先拿本地模型、推理服务和高性能serving这几个典型后端开刀,验证provider-plugin机制能不能跑通。

Kubernetes部署起步支持

这次发布加入了一个starter级别的K8s安装方案,包含原始manifests、Kind环境准备和部署文档。

这个更新虽然不像UI或fast mode那样容易被普通用户直接感知,但它对企业和团队用户的意义非常大。此前OpenClaw更像一款适合个人设备、轻量服务器或小规模环境的工具;而K8s安装路径的加入,说明官方已经开始认真考虑它在容器化和集群环境中的标准化部署方式。

两项关键安全修复

1. 设备配对机制改为短时bootstrap token

GitHub安全公告显示,在2026.3.11及更早版本中,/pairopenclaw qr生成的配对代码,会把长期有效的共享gateway token或密码直接嵌入到setup payload中;只要有人从聊天记录、日志、截图或复制出来的二维码内容中拿到这些代码,就可能恢复并重用长期凭证。

2026.3.12已将其改为只用于初始引导交换的短时bootstrap token,官方同时建议:如果旧版setup code可能泄露,应轮换之前暴露过的共享gateway凭证。

这项修复的意义非常直接。OpenClaw本质上是一个具有较高执行权限、能接触本地系统和外部服务的代理系统,配对流程一旦把长期凭证暴露在可复制、可转发、可截图的媒介里,风险就不是理论上的,而是极易在真实使用中被误泄露。现在改成短时bootstrap token,相当于把"拿到配对码就拿到长期钥匙"的危险链条切断了。

2. 禁用工作区插件的隐式自动加载

此前,克隆的仓库可以直接执行插件代码,存在安全隐患。3.12版本要求显式信任决策后才能执行插件代码。

200+Bug修复

修复覆盖全场景:

  • 聊天渠道:Telegram重复消息、Discord断连、飞书兼容
  • 核心智能体:工具调用解析、流式输出、上下文截断
  • 底层稳定:Token防掉线、内存去重、数据库锁冲突
  • 安全加固:依赖升级、沙盒防护、执行权限白名单

一个开源项目靠不靠谱,看修复清单就知道。问题暴露得越多,说明用的人越多;修得越勤,说明项目越有未来。

Discord + Telegram深度整合

Discord端:修复了断连后无法恢复的死机问题,优化了频道解析和机器人心跳检测,支持持久化频道绑定功能。

Telegram端:新增了主题级别(Topic)的智能体路由隔离——这意味着你可以在同一个Telegram群组的不同主题里,分别运行不同的AI智能体,互不干扰。

持久化绑定意味着:重启服务后配置自动恢复,不用重新绑定。对团队和高频用户来说,这是能直接提升幸福感的细节。

多模态记忆支持

Memory模块新增可选图像与音频索引,采用Gemini gemini-embedding-2-preview模型,增加严格回退机制与基于作用域的重索引。

这意味着你的龙虾现在不仅能检索长文本库,连你扔过去的图纸、录音都能直接塞进Memory里做上下文。那些靠丢截图来驱动电脑操作的场景,准确度能再拔高一截。

CLI备份系统(v2026.3.8)

新增命令:

bashopenclaw backup create  # 创建备份
openclaw backup verify  # 验证备份

支持--only-config--no-include-workspace等选项,破坏性操作前自动引导备份。配置党、workspace党直接起飞。

如何升级?

方式1:npm升级(推荐)bashnpm update -g openclaw

方式2:下载安装包

访问GitHub Release页面:

  • macOS: openclaw-2026.3.12.dmg
  • Windows: openclaw-2026.3.12.zip

方式3:Kubernetesbashkubectl apply -f https://github.com/openclaw/openclaw/releases/download/v2026.3.12/k8s-manifests.yaml

2026.3.12版本统计

  • 贡献者:40+位开发者
  • Changes:6项重大更新
  • Fixes:40+项修复
  • 安全更新:10+项安全修复
  • 下载量:2,500+(首日)

OpenClaw 3.7到3.12的连续更新,从性能到安全再到易用性,全方位提升。ContextEngine接口的开放,标志着它从一个"开箱即用的工具"转向"可无限拓展的平台"。

如果你还在观望,现在是上手的好时机。如果你已经在用,赶紧升级体验新功能。AI Agent的"可插拔记忆"时代,已经来了。

#OpenClaw #AI智能体 #版本更新 #ContextEngine #GPT5.4 #Gemini3.1 #Kubernetes #安全修复

OPC攻略

注于全球金融科技创新趋势分析