↑阅读之前记得关注+星标⭐️,📌,每天才能第一时间接收到更新
停更9天后,OpenClaw终于把“大招”端上来了。
根据官方刚刚发布的 v2026.3.22-beta.1 预览版更新说明,这次更新明显不是那种“修两个按钮、补三处文案”的常规迭代,而是一轮从底层架构到安全边界、再到模型接入方式的系统级翻修。说得直白一点:这不是换皮肤,这是换底盘。🦞

更有意思的是,这次最值得看的,并不是某一个单点功能有多炸,而是它释放出的产品信号已经非常清楚:OpenClaw正在从“能玩”走向“敢用”。这两个字看起来只差一步,实际上中间隔着工程、生态和安全三座大山。
插件系统这次,是真的翻篇了
先说最核心的一刀。
OpenClaw把旧的扩展 API 直接移除,新的公开插件 SDK 全面接管。这个动作相当狠,因为它几乎等于正式宣布:旧插件时代,到此为止。
对开发者来说,这不是“有空再适配一下”的提醒,而是实打实的迁移通知。凡是还依赖旧接口的第三方插件,基本都得重做适配。连一些官方原本的技能包装方式,也被统一并入新的模型调用路径里,整体方向非常明确——减少历史包袱,把插件机制做成一套更标准、更可控的体系。
另一个值得注意的变化,是插件分发渠道的优先级被改了。
以前安装插件,默认更多是从 npm 这类通用包仓库拉取;现在官方把 ClawHub 放到了更靠前的位置,只有找不到时才回退到其他来源。这个动作的潜台词不难读懂:官方开始主动收紧生态入口,优先保证插件来源的可控性和质量稳定性。
当然,这样做的好处和代价都很明显。好处是生态更干净,坏处是迁移期可能会有阵痛,尤其是依赖老插件的用户,短期内要有一些心理准备。说得幽默点,就是以前像“自助火锅”,现在更像“精选菜单”——自由度少一点,卫生条件高很多。
不过,OpenClaw并没有把自己做成封闭花园。按照官方描述,新版还增强了对外部开发工具插件包的发现与安装支持,像 Claude、Codex、Cursor 相关生态中的一部分能力,也有机会被映射进 OpenClaw 的技能体系里。这一步如果后续落地顺畅,OpenClaw的插件边界会被进一步打开。当然,目前这部分更多还是看官方路线和开发者适配进度,真正能不能形成规模,还得交给时间。
安全这块,补的都不是小洞
如果说插件重构是在规划未来,那这次的安全更新,就是在处理“必须马上解决”的现实问题。
而且,补的不是那种“登录页多了一层提示”式的小修小补,而是一些相当要命的洞。
比如 Windows 用户比较需要警惕的远程路径加载问题。按照官方披露,旧版本在某些媒体加载场景中,可能被特殊的 file 路径或 UNC 路径利用,触发 SMB 认证请求。翻译成人话就是:表面上像在加载文件,实际上可能把系统凭证悄悄递出去。这类问题一旦被利用,后果通常不是“有点麻烦”,而是“非常麻烦”。
除此之外,执行环境也做了更严格的沙盒加固。多种常见构建工具链相关的环境变量注入路径被封堵,部分依赖劫持和底层调优参数利用通道也被拦住。对于普通用户来说,可能不会天天盯着这些技术名词,但结论很清楚:OpenClaw正在减少那些“平时看不见、出事就很大”的攻击面。

还有一个很有代表性的修复,是对 Unicode 零宽字符伪装的处理。
这类问题最阴险的地方在于,它不是正面硬闯,而是“把危险命令伪装得像没事发生”。操作者在审批时,看到的内容可能并不是真实内容。新版对相关字符做了转义处理,至少在关键审批链路里,不再那么容易被“文字魔术”糊弄过去。
另外,语音通话 Webhook 在预认证阶段也加了限制,降低了被资源消耗型请求拖垮的风险。对于公网部署用户来说,这一版安全更新不太像“建议安装”,更像是能更就尽快更。
模型阵营继续扩军,默认模型也换人了
模型层面,这次的动作同样不小。
最醒目的变化,是 OpenAI 默认模型切到了 GPT-5.4,同时还提前预置了 mini 和 nano 级别的兼容支持。这个设计很务实,因为它不是只追一个“新字”,而是在为后续不同场景的成本、速度和能力分层做铺垫。一句话概括:默认模型更强了,调度空间也更灵活了。
MiniMax 这边,默认版本从 M2.5 升到 M2.7,而且此前分开的接入方式被合并成统一插件,配置复杂度比以前低不少。对很多团队来说,模型能力是否顶尖是一回事,接入过程是不是折腾,往往是另一回事。把入口做简单,本身就是体验升级。
Anthropic 方面,官方也补上了通过 Google Vertex AI 调用 Claude 的路径。这一改动对已经在 GCP 上跑业务的团队尤其有价值,因为它意味着模型接入和现有云环境的结合会更自然。再加上 Grok、GLM、Mistral 等目录和元数据同步更新,OpenClaw“模型路由器”的角色,确实越来越明显了。
当然,也要客观看一句:模型名单变长,不等于实际体验自动变强。真正决定体验的,还是调用稳定性、上下文处理、成本控制和工具链衔接。好消息是,这次更新并不只是“多接几个名字”,而是配套把框架往更成熟的方向推进了一步。
那些不抢头条,但你每天都会用到的细节
一款产品有没有在认真做工程,有时候看大功能不如看小修补。
比如 Android 端终于更完整地支持深色模式,从引导到聊天到语音页面,整体一致性更好了。Control UI 还加入了圆角调节这种“看起来不大、用起来很顺手”的细节。它不负责震惊全网,但很负责让你少一点别扭。
Telegram 这边也有几个挺实用的调整。首条消息进入后,系统会自动生成更有意义的话题名称,不再是那种冷冰冰的 ID 串;错误回复还能选择静默,少一点“机器人大半夜突然叮你一下”的惊悚感。🤖
飞书相关的交互也更完整了,审批卡片、快捷操作卡片、推理流展示这些能力补上之后,企业协作场景会更顺手。尤其是推理过程的展示方式更清晰,对需要审核或多人协作的环境来说,透明度会比以前高不少。
浏览器和沙盒架构方面,同样能看出这次更新的工程味。旧的中继方式被逐步清理,Chromium 系浏览器连接方式更直接;沙盒系统则开始支持可插拔后端,不再把自己死死绑在单一方案上。这类改动不一定最“出圈”,但它们决定产品后面能不能长得更稳。
Agent也被悄悄打磨得更像“能干活的同事”
如果你平时会拿 OpenClaw 跑长任务,这次还有几个更新会非常有感。
先是长对话压缩机制继续迭代。以前这类功能最怕的就是会话太长、压缩太慢、压到一半超时翻车。新版在压缩过程中会自动延长截止时间,并修复一些历史消息结构问题,尽量避免“本来是为了瘦身,结果把自己压晕了”的情况。
更夸张的是,默认 Agent 超时时间直接拉到了 48 小时。是的,不是多给你五分钟,是直接从“短跑”改成“耐力赛”。这对需要长期执行、跨步骤处理的任务会友好很多。AI 不再动不动就十分钟下班,这件事本身就挺让人欣慰。😄
还有个颇有生活气息的小功能:/btw。
你可以在主线对话之外,临时插一句“顺便问下”,系统会快速回答,但不强行污染当前上下文。这个设计很像开会时你凑过去小声问同事一句题外话,问完再继续正事。别小看这种“小聪明”,它往往最能体现产品团队到底懂不懂真实使用场景。
这次更新,真正值钱的是什么
如果只看表面,这次升级可以被概括成一句很热闹的话:插件重构了,安全补了一堆洞,模型又上新了,体验也继续修。
但如果往深一点看,它真正值钱的地方在于:OpenClaw开始明显把重心放在“可控、可靠、可部署”上。
过去很多 AI 产品喜欢把注意力放在“再多一个功能”“再多接一个模型”“再堆一层炫技演示”上,看上去热闹,实际落地时却很容易在安全、兼容、维护性上露馅。OpenClaw这次不算最花哨,但很像一次认认真真的工程回炉。
当然,也别忘了一个前提:这还是 beta 预览版。
对普通用户来说,如果你依赖老插件、生产环境又比较敏感,先观察一下社区迁移情况未必是坏事;但如果你本身是公网部署、对安全风险比较在意,那这版的补丁价值就非常现实。换句话说,想尝鲜的人会看到新能力,想落地的人会看到新秩序。
停更9天,憋出这样一版更新,至少说明一件事:OpenClaw现在不只是想让大家“觉得它强”,更想让大家“放心把活交给它”。
这比单纯会整活,难多了。
夜雨聆风