OpenClaw断更9天憋出王炸!插件系统大换血,这次升级有点狠
刚刚,OpenClaw创始人Peter Steinberger重磅官宣——OpenClaw「2026.3.22-beta.1」预览版上线。
断更9天,憋了一个王炸出来。
说实话,我看完更新日志,整个人都傻了。这次升级不是修修补补,是直接重构。
插件系统,换骨了
3.22最核心的变化:插件生态,彻底换骨。
旧的openclaw/extension-api被一刀切砍掉,没有兼容层,没有过渡期。
取而代之的是全新的openclaw/plugin-sdk/*模块化接口。
官方甚至把nano-banana-pro图像生成技能包装器也一并干掉了,统一走agents.defaults.imageGenerationModel路径。
这意味着什么?
意味着之前你安装的那些插件,可能有一大半都不能用了。
但别急着骂——官方这么做是有道理的。
ClawHub成为官方首选分发渠道。以前执行openclaw plugins install,系统直接从npm拉包。但npm本质上是个通用包管理器,谁都能发包,质量参差不齐。ClawHub则是OpenClaw官方维护的插件市场,审核更严、来源更可控。
说实话,这波操作有点当年苹果App Store的意思了。
安全大修,10多个漏洞封堵
这次安全升级,力度前所未有。
针对Windows用户,系统新增了拦截,对执行环境进行了加固。之前有人发现可以用不可见的韩文填充码位(Hangul Filler)来伪装执行命令的审批提示,让操作者在审批时看不到真实的命令内容——这个漏洞被堵了。
新版直接封锁了MAVEN_OPTS、SBT_OPTS、GRADLE_OPTS等JVM注入路径,堵住了GLIBC_TUNABLES利用通道,还拦截了.NET的DOTNET_ADDITIONAL_DEPS依赖劫持。
之前攻击者可以通过构造特殊的file://或UNC路径,在媒体加载环节触发Windows自动发起SMB认证握手,把Windows登录凭证往外送——这个也堵了。
工信部前几天刚发完预警,OpenClaw这波安全升级,时机刚刚好。
模型阵营大扩军
GPT-5.4默认上位。OpenAI模型正式切换到GPT-5.4,同时预置了gpt-5.4-mini和gpt-5.4-nano的前向兼容支持。
MiniMax M2.7整合。默认模型从M2.5升级到M2.7,还合并了此前分离的API和OAuth两个插件入口,统一成单一的minimax插件,配置复杂度大幅降低。
Anthropic Vertex正式接入。现在可以通过Google Vertex AI直接调用Claude模型,包括GCP认证和自动发现。
此外,xAI的Grok目录同步到了最新版本,Z.AI的GLM也更新到了4.5/4.6系列。
OpenClaw作为「模型路由器」的定位,正在被越来越多的一线大模型厂商认可。
体验打磨,48小时超时
还有一些贴心的细节更新:
– 默认Agent超时时间从600秒,直接拉到了48小时
– 新增/btw命令,可以在对话过程中随时插入「旁白问题」,AI快速回答但不影响当前会话上下文
– Telegram新增结构化交互审批卡片和快捷操作启动卡片,支持ACP和子智能体绑定
我的感受
断更9天,憋出这么一个大版本。
说实话,之前看到工信部的安全预警,我一度以为OpenClaw要凉了。
但现在看,这波操作说明团队在认真做产品了——不是堆功能冲Star,而是开始认真做工程。
插件生态一刀切重构,安全漏洞10多个一次性封堵,模型阵营全面扩军。
这种更新节奏说明一件事:OpenClaw团队已经过了「堆功能冲Star」的阶段,开始认真做工程了。
对开发者来说,这波升级可能会有点痛——很多旧插件不能用了,配置要重新调。
但长期来看,这是好事。
对我自己来说,OpenClaw现在已经是每天工作流的核心工具了。这次升级之后,估计又要花时间适应一下新架构。
但说实话,我愿意。
毕竟,能让AI真正替我干活的东西,值得我花时间折腾。
你升级了吗?感受如何?
我是微微辣,7年程序员,靠OpenClaw打造了AI编程IP

扫码加我,备注’OpenClaw’,我拉你进交流群
夜雨聆风