OpenClaw 4.27 更新解析:Docker 原生接入 GPU,腾讯元宝/QQBot 全面打通!
大家好,我是大可。
兄弟们,几小时前 OpenClaw 又悄悄发版了,版本号来到了 v2026.4.27。
老规矩,我第一时间把更新日志的源码扒了一遍。这次的更新没有搞什么花里胡哨的 UI 翻新,重点全在底层算力释放、国内生态适配以及核心 Agent 能力的补全上。几个老生常谈的坑终于被填平了。
不废话,直接看那些跟咱们日常干活最沾边的硬核改动:
1. 服务器党狂喜:Docker 沙箱正式解锁 GPU 直通 🚀
如果你跟我一样,平时喜欢用 Docker 来做隔离部署,这个更新绝对是本期最大的亮点。
以前在 OpenClaw 的沙箱容器里跑一些本地模型或者需要算力的脚本,总是被卡死在 CPU 上。这次官方终于开放了 sandbox.docker.gpus 选项。只要你的宿主机 Docker 运行时支持 --gpus 参数,Agent 在沙箱里运行的本地工作流(比如一些数据清洗、本地小模型推理)就可以直接调用物理 GPU 算力了。这对于做重度数据处理的场景来说,效率是指数级的提升。
2. 国内工作流补齐:腾讯元宝接入与 QQBot 大重构 🐧
做私域运营和企业级集成的开发者迎来了利好。
这次更新深度拓展了腾讯生态的覆盖面:
-
腾讯元宝(Yuanbao):正式进入官方支持的 Provider 列表,并且补齐了相关的文档和目录元数据。
-
QQBot 彻底打通:在之前的版本基础上,这次完成了对 QQ 群组聊天、流式输出(Streaming)以及媒体文件上传的全面支持,并且对底层的数据管道进行了重构。这套体系现在基本对齐了微信/企微端的开发体验,做国内 IM 自动化回复的兄弟可以直接抄作业了。
3. Agent 核心能力增强:Codex 电脑控制与视觉模型修复 🧠
对于深度依赖编码助手(Coding Agent)和多模态工作流的玩家,有两个很实用的改进:
-
Codex “Computer Use” 装备升级:如果你习惯用
gpt-5.3-codex这类强代码模型,这次更新为 Codex 模式专门加上了环境检查和安装指令(/codex computer-use status/install)。更重要的是,加入了对 MCP(模型上下文协议)的严格检查,避免了底层 Node 进程和工具链没接好导致的静默报错。 -
Ollama 本地视觉模型识别修复:之前有个极其折磨人的 Bug——如果配置了像
moondream或者qwen2.5vl:7b这种本地 Ollama 视觉模型,系统偶尔会犯傻,强行回退到默认的云端提供商去处理图片。这次终于把默认逻辑修好了,通过严格校验唯一提供商,本地视觉模型不再会“意外跑偏”。
4. 几个不能忽视的运维细节 🛠️
除了上面的大头,这次在稳定性和冷启动速度上也下了功夫:
-
插件与模型清单“瘦身”:底层的插件启动和模型目录改为了“清单优先(manifest-first)”模式。直接效果就是网关(Gateway)的启动速度快了一截,而且排查那些被禁用的模型别名时,日志更清晰了。
-
网络出口代理管控:增加了一个
proxy.enabled的硬性开关。现在管理员可以严格限制所有的出站流量必须走配置好的 HTTP 正向代理,而且系统退出时会自动清理环境状态,彻底杜绝了之前偶发的代理环境变量泄露问题,这在企业级安全部署里非常关键。 -
LINE 下载路径优化:如果你做跨境业务接了 LINE,现在的媒体文件(图片、语音等)会持久化保存在
~/.openclaw/media/inbound/下,不再会被系统的/tmp目录自动清理功能误删了。
总结一下:
OpenClaw 4.27 这个版本是一次扎扎实实的“内功”升级。不管是 Docker 开放 GPU 带来的算力解放,还是对国内腾讯系生态的深度打磨,都让这个框架在实战部署中变得更加耐造。
近期有维护服务器节点,或者在跑本地自动化工作流的朋友,强烈建议把这个版本合并上去,能省下不少修 Bug 的掉头发时间!
关 注 我 ,获取更多资讯
“ 你的每一次关注和分享,都是我持续更新的动力 ”
夜雨聆风