乐于分享
好东西不私藏

OpenClaw Peekaboo v3:当Agent拥有像素级视觉+桌面操控能力

OpenClaw Peekaboo v3:当Agent拥有像素级视觉+桌面操控能力

最近科技圈有个产品悄悄完成了关键升级,但讨论的人不多。

但很多人还没注意到它的最新变化。

这个产品叫 OpenClaw,那个曾经在开发者圈子里刷过屏的「龙虾」。年初火的时候,大家都在聊它能让 AI 自己操作电脑。但实际用下来会发现一个问题:它确实能执行任务,但在桌面操作这一步,还是得人上手。

最后一公里,始终过不去。

最近,OpenClaw 团队发布了一个叫 Peekaboo v3 的工具,彻底把这个问题解决了。


01 · 为什么Agent总是「差最后一公里」

要理解 Peekaboo v3 做了什么,先得理解过去的问题在哪。

过去市面上的 Computer Use Agent,本质上都是「工具调用器」:AI 分析任务 → 调用工具 → 工具执行 → 结果返回 AI。流程跑完了,最后一步桌面操作还是得人来。

举个例子,你想让 AI 帮你填一个网页表单。AI 能打开网页、读出表单字段,但到了「把光标移到那个输入框、点击、输入文字」这一步,对不起,做不了。

原因不在 AI 本身,而在于操作系统给的权限边界。

主流 Agent 工具拿到的是文件读写和网络请求权限,不是鼠标键盘操作权限。想让 AI 操作桌面,等于让它开着一辆没有方向盘的车——能跑,但不能转向。

这是一条被刻意设计出来的边界,也是一堵墙。

但这堵墙不是不能拆。苹果的 macOS 本身提供了完整的辅助功能接口(Accessibility API),只是很少有工具去用它。Peekaboo v3 就是从这个底层接口切入,把屏幕读取和鼠标键盘模拟两件事打穿了。


02 · Peekaboo v3:给Mac装一双带眼睛和手的工具包

Peter 是 OpenClaw 的核心开发者,去年 11 月就动了给 Agent 装上手脚的念头。半年时间,beta 版本迭代了四个,直到最近一口气发布了 v3.1.0、v3.1.1、v3.1.2 三个版本。

Peekaboo 的设计目标很直接:让 AI Agent 能在 Mac 上看到屏幕,也能操作鼠标键盘。

「看」的能力来自像素级截取。Peekaboo v3 不仅能截取窗口、全屏、菜单栏的图像,还能读取 macOS 上每个 UI 元素的位置、类型和 label 信息。说白了,它知道屏幕上每一个按钮在哪、长什么样、叫什么名字。官方的说法是「慧眼识珠屏幕」,不是夸张。

「动」的能力来自完整的鼠标键盘模拟。点击、输入文字、按快捷键、滚动、拖拽、切换窗口、切换桌面(Space)、操作 Dock、点系统弹窗——人类在 Mac 上能做的操作,它基本都能做。而且不是通过模拟触摸板或鼠标的坐标位移,而是通过 macOS 的底层事件接口,精度和真人操作是同一个级别。

两件事加在一起,等于给 Agent 装了一双真正的眼睛和手。


03 · 四种打开方式:命令行、MCP、桌面App、Swift库

Peekaboo v3 不是只有一个用法。同一套能力,团队设计了四种不同的接入方式,面向四类不同的用户。

第一种,Homebrew 安装,适合写脚本自动化任务的用户。 一行命令装好,直接在终端里调用,执行自动化工作流。

第二种,MCP Server 模式,适合已经用上 Claude Code、Cursor、Codex 这类 AI 编程工具的开发者。 Peekaboo 可以作为 MCP Server 接入,把屏幕读取和操作能力无缝嵌入 AI 编程工具的工作流。

第三种,Mac 桌面 App,面向不想碰命令行的普通用户。 可视化界面,图形化权限管理,开箱即用,不需要配 API、不需要写 Skill。

第四种,Swift 库,面向 Swift 开发者。 可以把 Peekaboo 当成组件嵌进自己的 App 里,按需定制。

四种方式覆盖了从极客到普通用户的完整光谱。丰俭由人,各取所需。


04 · 实测:让Cursor自己修bug自己验证

最能说明 Peekaboo v3 威力的,是开发者社区的一个实测案例。

网友让 Peekaboo v3 配合 Hermes(OpenClaw 的 Agent 框架)做了一个 Computer Use 测试:让 Hermes 操作计算器,Peekaboo 读取屏幕结果,Python 独立验证答案,整个流程一气呵成,成功通过。

这个测试看起来简单,但背后跑通了一个关键逻辑:观察结果→验证结果→确认正确。这是让 AI 做实事最基础的一个循环。

更激进一点的用法是直接让 Cursor 接上 Peekaboo:写代码跑起来,UI 出 bug 了,Cursor 自己截图、自己看、自己改、自己再跑一遍验证。整个过程没有人工介入。

没有 Peekaboo 之前,Cursor 写完代码需要人盯着运行结果,发现报错再手动把错误信息贴回去让 AI 分析。有了 Peekaboo,这条回路可以完全自动化:AI 写 → AI 跑 → AI 看结果 → AI 判断对错 → 对了交付、错了重写。

这意味着什么?

意味着一个 AI 编程工具,不仅能写代码,还能验证代码质量。发现问题、修复问题、确认修复有效——闭环了。这不只是改善效率,是把质量控制本身自动化了。


05 · 不只是个工具,是一次范式转移

OpenClaw 最初被关注的时候,大家把它当成一个「让 AI 操作电脑」的工具。Peekaboo v3 之后,这个定位已经不够用了。

当 Agent 能看到屏幕、能操作桌面,它就不再只是一个执行工具,而是一个真正能在数字世界里「下场干活」的主体。

这背后的变化不是功能层面的,是架构层面的。

过去的 Agent 是「指令接收器」:人类决策,AI 执行。人类是主体,AI 是工具。Peekaboo v3 支持下的 Agent 是「任务完成者」:人类描述目标,AI 自己规划路径、自己操作验证、自己交付结果。AI 是主体,人类是评审。

这是架构层面的一次翻转。

从工具到主体,从执行者到完成者,从指令驱动到目标驱动——这是 AI Agent 能力边界的一次质变。

OpenClaw 这只龙虾,曾经因为上手简单风靡开发者圈。现在它长出了手和脚,真正能在 Mac 上替我们打工了。

问题是:当 AI 能做完所有事,我们该干什么?


AI钳能觉醒 · 2026年5月13日 · 杭州 · 25°C 东南风