AI 终于开始接管桌面?OpenClaw 4.27 把 Codex 带进了真实电脑
OpenClaw 4.27 速读
这不是又一个“模型更聪明了”的发布。更准确地说,它让 AI 从聊天窗口里走出来,开始触碰鼠标、键盘、应用和文件。
适合 AI 爱好者兼顾开发者视角基于公开视频内容整理
如果只用一句话概括 OpenClaw 4.27:它让 Codex 不再只是“帮你想、帮你写”,而是进一步变成“能在电脑上帮你做”的代理。
这也是为什么这次更新值得 AI 爱好者认真看一眼。它背后的趋势,比某个按钮、某个模型、某个插件本身更重要。
一、最值得关注的更新:Codex 开始控制桌面
过去我们说 AI agent,很多时候其实还停留在“会聊天、会写代码、会调用工具”的阶段。它能告诉你怎么做,也能帮你生成脚本,但一旦进入真实电脑环境,比如打开软件、点按钮、拖文件、保存图片、上传内容,事情就容易变复杂。
OpenClaw 4.27 这次把 Codex Computer Use 接了进来。简单说,就是让 OpenClaw 里的 Codex 具备控制桌面的能力:看屏幕、移动鼠标、输入文字、操作应用。
图 1:OpenClaw 把任务、代理和真实桌面连接起来。
视频里举了一个很容易理解的例子:你让代理打开 Photoshop,编辑一张缩略图,保存,然后上传到你的后台。以前这可能需要几个工具、一些脚本、外加一段过期教程。现在,它更接近一句任务交给代理,然后由代理自己去桌面上完成。
这听起来像科幻,但真正有价值的地方并不是“AI 会点鼠标”这个动作,而是它把很多原本割裂的软件操作串起来了。桌面,就是普通人每天真正工作的地方。
过去的 AI 像一个很聪明的顾问;接入桌面控制后,它开始更像一个可以坐到电脑前的执行者。这也是 OpenClaw 4.27 最有想象力的地方。
为了降低安装门槛,OpenClaw 新增了两个命令:
/codex computer use status
/codex computer use install
第一个命令检查桌面控制所需的 MCP 服务是否装好、是否能连上;第二个命令负责自动安装。更重要的是,它采用了“先检查再执行”的思路:如果桌面控制桥不健康,任务就不会继续跑,避免代理在不可控状态下乱点乱输入。
二、DeepInfra:把一堆模型服务收拢到一个入口
OpenClaw 4.27 的另一个重要更新,是把 DeepInfra 做成内置 provider。
这件事听上去没有桌面控制那么抓人,但对真正做 AI 应用的人很实在。很多人现在的工作流是这样的:文本模型一个平台,图片生成一个平台,语音合成一个平台,embedding 又是另一个平台。账号多、账单多、API key 多,配置也容易乱。
DeepInfra 的意义,就是把大量开源模型和多模态能力放到一个相对统一的入口里。视频里提到,它可以覆盖模型发现、图像生成和编辑、图像/音频理解、文本转语音、文本转视频、记忆 embedding 等能力。
更省事
少配几个服务
一个 provider 能覆盖更多场景,配置、密钥轮换和排障都会轻一些。
更省钱
适合高频任务
对批量内容、测试、原型验证来说,便宜稳定往往比顶级质量更重要。
更灵活
动态发现模型
当 DeepInfra 增加新模型时,OpenClaw 可以更快看到,不必总等核心版本更新。
更务实
高级模型仍可保留
关键任务继续用高质量专用 provider,普通任务交给更经济的入口。
三、这次更新真正成熟的地方,在那些“不上封面”的细节
如果只看热闹,OpenClaw 4.27 的 headline 是桌面控制。但如果你是开发者、团队负责人,或者正在用 agent 搭业务流程,那些基础设施层面的改动更值得留意。
图 2:4.27 的很多改动都在提高长期运行的可靠性。
1. 插件元数据清理:平台扩展更快
视频提到,OpenClaw 把一批 provider catalog 从运行时 fallback hook 迁移到了 plugin manifest。翻译成人话:以前一些模型供应商的信息更像“写在代码里的逻辑”,现在更像“声明在插件里的数据”。
好处是启动更快、模型列表更清爽,插件作者也更容易接入新 provider。对用户来说,这类改动不会让你第一眼惊呼,但它会让软件越来越稳、越来越容易扩展。
2. Docker GPU passthrough:本地模型玩家会喜欢
新增的 sandbox.docker.gpu 允许沙箱容器使用宿主机 GPU。对普通用户来说这不一定马上用得上;但对跑本地模型、私有部署、图像生成或本地 embedding 的人来说,这很关键。
3. 企业代理网络:公司环境终于不那么别扭
新增 proxy.enabled 和 proxy.url,支持通过企业 HTTP forward proxy 访问外部服务,同时绕过本地 gateway。换句话说,如果你的公司网络不能直接访问外部 API,这次更新让 OpenClaw 更容易被放进真实办公环境。
4. 移动端在线状态:小功能,大体验
iOS 和 Android 配对设备现在可以发送更准确的 presence alive 事件。手机锁屏、应用退到后台时,系统不会立刻把它当成彻底掉线。这个功能不宏大,但会让多设备协作更顺。
5. Slack、Telegram、Windows、离线环境:补的都是实际使用里的坑
比如 Telegram 发送变慢时不再拖死 gateway 回复,Slack 增加 pong timeout 和媒体下载 timeout,gateway 启动不再卡在主模型预热上,Windows 重启交接更稳,离线或受限网络可以关闭 pricing fetch。
这些都是老用户会点头的地方。一个 agent 平台能不能被长期依赖,不只看它会不会炫技,也看它在网络慢、服务卡、机器重启、企业限制这些现实情况里会不会崩。
四、面向中文生态:腾讯 Wombo 和 QQ Bot 的价值
视频最后还提到了 Tencent Wombo 外部 channel plugin,以及 QQ Bot 群聊支持的增强,包括群聊历史、按 mention 触发、按群配置模型、FIFO 消息队列、流式控制、大文件分片上传等。
这部分对海外用户可能不算头条,但对中文生态很有意义。AI agent 如果只停留在英文社区常用工具里,很难真正进入国内用户的日常场景。QQ、群聊、中文内容分发、跨境协作,这些都是另一套现实世界。
五、普通 AI 爱好者该怎么理解这次更新?
别把 OpenClaw 4.27 只看成一个版本号。它更像一个信号:AI agent 正在从“会说话的软件”变成“能进入工作现场的软件”。
如果你只是感兴趣
重点看桌面控制。未来很多自动化不一定先从 API 开始,而是从“让 AI 像人一样操作电脑”开始。
如果你正在做内容或运营
关注完整工作流:生成脚本、做图、发帖、上传后台、整理素材。桌面控制会让这些流程更容易串起来。
如果你是开发者
关注 provider、plugin manifest、proxy、sandbox GPU、离线配置。这些决定了 agent 能否稳定部署到真实环境。
如果你在企业里推动 AI
proxy、超时控制、离线 pricing 配置,比“又多一个模型”更重要。企业落地最怕的不是能力不够,而是不可控。
想体验视频里提到的桌面控制,可以从这两个命令开始:
/codex computer use status
/codex computer use install
如果你正在用 DeepInfra,也可以配置对应环境变量并在 OpenClaw 中启用。对很多高频、批量、非极致质量要求的任务来说,它可能会帮你省下一些服务成本和配置精力。
最后说一句
OpenClaw 4.27 最打动人的地方,不是它堆了多少功能,而是这些功能开始围绕一个更清晰的方向展开:让 AI agent 真正进入你的电脑、你的团队、你的网络环境和你的日常工作流。
当 AI 能看屏幕、能动鼠标、能调用模型、能走企业代理、能接入 Slack/Telegram/QQ、能在本地 GPU 沙箱里跑任务时,它就不再只是一个“聪明聊天框”。它开始接近一种新的工作接口。
这才是这次更新真正值得关注的地方。

本文根据公开视频内容整理改写。内容侧重产品趋势与技术理解,具体配置请以 OpenClaw 官方文档和你当前安装版本为准。
夜雨聆风