乐于分享
好东西不私藏

OpenClaw Node 系统:让 AI 控制你的手机和电脑

OpenClaw Node 系统:让 AI 控制你的手机和电脑

从0到AI,每天为你拆解 AI 工具的实战用法与部署技巧。全文约 3500 字,建议收藏慢读。


"AI 不只是能回答问题——它还可以拍照、录屏、知道你在哪里。"

"把手机变成 AI 的眼睛和耳朵,只需要一个 App。"

"Node 系统是 OpenClaw 最容易被忽视、却最有意思的部分。"


AI 的局限:只会"说",不会"看"

我们用 AI 助手的方式,大多是这样的:打字、发问、等回答。

这没什么问题。但有时候你会希望 AI 不只是回答——你希望它能主动感知世界。

比如:

你让 AI 帮你监控家里的状况,它能直接调用摄像头看一眼吗? 你让 AI 知道你现在在哪里,它能直接读取位置吗? 你让 AI 在你的电脑上执行命令、截屏、或者发送桌面通知,它能做到吗?

通常这些都要绕很大一圈——第三方 API、手动授权、复杂的配置。

OpenClaw 的 Node 系统,换了一种思路。


Node 是什么?一句话解释

Node(节点)就是你配对到 OpenClaw 的设备。

可以是你的手机(iOS 或 Android),可以是你的 Mac,也可以是家里的树莓派、服务器——任何能跑 OpenClaw App 或 Node Host 的机器。

配对之后,这台设备就变成了 AI 可以直接调用的"外设"。

AI 可以通过这台设备:

  • 拍照(前置摄像头、后置摄像头)
  • 录视频
  • 截屏、录屏
  • 查位置
  • 发送桌面通知
  • 在设备上执行命令
  • 读取 Android 的通知列表、联系人、日历

设备本身不运行 AI——AI 仍然在 Gateway 上。但 Gateway 可以把"动作"发送到节点,由节点代为执行,再把结果返回来。


配对流程:比想象中简单

配对分两步。

第一步:设备端连接到 Gateway

如果是手机 App,打开 OpenClaw,在设置里填入 Gateway 地址,App 会自动发起连接请求。

如果是 Mac 或 Linux,在终端运行:

ounter(lineopenclaw node run --host <gateway地址> --port 18789 --display-name "我的MacBook"

这会在前台启动一个 Node Host,连接到你的 Gateway。想让它在后台持续运行?用 install 命令注册成系统服务:

ounter(lineounter(lineopenclaw node install --host <gateway地址> --port 18789 --display-name "我的MacBook"openclaw node restart

第二步:在 Gateway 端批准

设备发起连接后,Gateway 会生成一个配对请求。在 Gateway 所在的机器上运行:

ounter(lineounter(lineopenclaw devices list       # 看有哪些待批准的设备openclaw devices approve <requestId>  # 批准

批准之后,用 openclaw nodes status 就能看到这台设备已在线。

配对完成。整个过程不需要任何 API Key,不需要端口映射(在同一局域网内的话),就是设备连 Gateway、Gateway 批准。


手机变成 AI 的摄像头

配对好手机之后,AI 可以直接拍照了。

CLI 层面是这样的:

ounter(lineounter(lineounter(lineounter(lineopenclaw nodes camera snap --node 我的iPhoneopenclaw nodes camera snap --node 我的iPhone --facing front   # 前置openclaw nodes camera snap --node 我的iPhone --facing back    # 后置openclaw nodes camera clip --node 我的iPhone --duration 10s   # 录 10 秒视频

但更有意思的是 AI 自己调用这个能力。

比如你告诉 AI:"帮我看看桌子上有什么"——AI 发现你配了一个手机节点,直接调用 camera snap,把照片拿回来分析,然后告诉你答案。

或者你建了一个自动化流程:每天早上 AI 用手机摄像头拍一张窗外的照片,记录天气状况。

权限上,iOS 和 Android 都需要在 App 内开启"允许摄像头"。App 放到后台的时候,摄像头会暂时不可用——这是系统限制,App 在前台才能拍。


录屏:AI 的屏幕直播

除了摄像头,AI 还可以录你的屏幕。

ounter(lineopenclaw nodes screen record --node 我的MacBook --duration 10s --fps 15

这在需要 AI 分析屏幕状态的场景下很有用。比如:

  • 让 AI 帮你 debug 一个 UI 问题——它直接录屏看
  • 让 AI 监控某个页面是否出现了特定内容
  • 记录工作状态,生成日报

录屏需要系统的"屏幕录制"权限,在 macOS 上第一次运行会弹出授权提示。


位置感知:AI 知道你在哪

手机节点还可以把位置分享给 AI。

默认是关闭的,需要在 App 里手动开启。支持三种模式:

  • 关闭:AI 拿不到任何位置信息
  • 使用期间:App 打开时可以获取位置
  • 始终:即使 App 在后台也能获取(需要系统权限)

开启后,AI 可以这样查位置:

ounter(lineopenclaw nodes location get --node 我的iPhone

返回的数据包括经纬度、精度(米)、海拔、速度,还有时间戳。

AI 有了位置之后,能做的事情就多了。比如:根据你当前位置推荐附近的餐厅;下班路上发出提醒;记录每天的行动轨迹(当然这个涉及隐私,自己权衡)。


Android 独有:通知、联系人、日历

Android 节点比 iOS 多了一些能力,可以访问设备上的个人数据:

通知列表——AI 可以看到手机上当前有哪些通知:

ounter(lineopenclaw nodes invoke --node 我的Android --command notifications.list --params '{}'

最新照片——读取相册里的最新一张:

ounter(lineopenclaw nodes invoke --node 我的Android --command photos.latest --params '{"limit":1}'

设备状态——电量、网络连接情况:

ounter(lineopenclaw nodes invoke --node 我的Android --command device.status --params '{}'

还有联系人、日历、运动数据……这些需要在 App 里对应开启权限。

这些能力组合起来,可以搭出很有意思的东西。比如:AI 每天早上检查你的日历,结合今天的天气,给你发一条定制化的早安提醒;或者在你手机没电快关机之前,自动发消息告诉你的家人。


远程执行命令:AI 操控你的电脑

Node 最硬核的功能,是让 AI 在另一台机器上执行命令。

场景是这样的:你的 AI(Gateway)跑在 VPS 上,你的开发机是家里的 Mac。你希望 AI 在你的 Mac 上执行命令——部署脚本、查看文件、运行测试。

正常做法:SSH 进去,手动操作。

OpenClaw 的做法:把 Mac 注册为 Node Host,AI 直接通过 Gateway 远程执行:

ounter(lineounter(lineounter(line# 在 Gateway 配置里设置默认用 node 执行openclaw config set tools.exec.host nodeopenclaw config set tools.exec.node "我的MacBook"

设置完之后,AI 在 session 里发出的 exec 命令,就会转发到 Mac 上执行,结果返回给 Gateway,AI 看到输出再继续工作。

AI 不需要知道它"在哪台机器上"——它只是调用工具,底层路由由 OpenClaw 处理。

安全上,有一套"执行审批"机制。默认模式下,新命令需要手动批准;也可以设置白名单,让特定命令自动通过。这保证了 AI 不会在你的机器上乱跑命令。


桌面通知:AI 直接推送给你

配对 Mac 节点之后,AI 还能发桌面通知:

ounter(lineopenclaw nodes notify --node 我的MacBook --title "任务完成" --body "文章已生成并发送"

支持三个优先级:passive(静默)、active(正常通知)、timeSensitive(时间敏感,可穿透勿扰模式)。

这在自动化流程里很实用。比如 AI 跑完一个长任务,直接给你发一个 Mac 通知,你不用一直盯着终端。


一个典型场景:AI 家庭助理

把上面这些能力组合起来,能搭出什么?

设想这样一个配置:

  • Gateway 跑在家里的树莓派或者 VPS
  • 客厅放一台旧 Android 手机,作为"监控节点"
  • 你的 MacBook 作为"工作节点"

这样:

  • AI 每天早上 8 点,调用 Android 的前置摄像头拍一张照,顺带查天气,发早安消息到 Telegram
  • 你说"帮我看看今天日历里有什么"——AI 读 Android 的日历,整理好发给你
  • 你在外面,说"家里怎么样了"——AI 调用 Android 摄像头拍一张,分析图片,告诉你
  • AI 跑完长任务,给你的 Mac 发桌面通知

这不是科幻。这是 OpenClaw Node 系统可以做到的,现在,今天。


实际使用的一些注意点

关于前台限制:摄像头和 Canvas(WebView)功能,需要 App 处于前台。如果手机锁屏了或者 App 被切到后台,相关命令会返回 NODE_BACKGROUND_UNAVAILABLE。如果需要后台拍照,可以考虑用持续开着 App 的旧手机专门当节点。

关于 SSH 隧道:如果 Gateway 绑定在本地回环地址(默认是这样),远程 Node Host 无法直接连接。需要建一条 SSH 隧道:

ounter(linessh -N -L 18790:127.0.0.1:18789 user@gateway地址

然后 Node Host 连 127.0.0.1:18790 就行。

关于权限:每台设备的权限要单独开。摄像头、位置、通知、屏幕录制——每个都需要在 App 设置或系统设置里单独授权。

关于安全:执行命令这个能力很强,要谨慎配置白名单。不要随意允许 AI 执行任意命令,用 allowlist 模式,精确控制哪些命令可以跑。


写在最后

Node 系统让 AI 从"会聊天的工具"变成了"有感知能力的助手"。

它可以看(摄像头)、可以知道你在哪(位置)、可以在你的设备上做事(远程执行)、可以通知你(桌面推送)。

这些能力单独看都不惊艳。但组合起来,加上 OpenClaw 的 Heartbeat 自动化和多 Agent 协作,就能搭出一套真正主动的、感知世界的 AI 系统。

这就是 OpenClaw 设计 Node 的用意:不只是让 AI 更聪明,而是让 AI 能真正触达物理世界。

几个核心要点:

  1. Node 是任何配对设备——手机、Mac、树莓派都行
  2. 配对只需两步:设备连 Gateway,Gateway 批准
  3. 摄像头、位置、屏幕、通知——这些能力都可以暴露给 AI
  4. Android 还多了通知、日历、联系人等个人数据访问
  5. 远程执行命令是最硬核的功能,记得配好审批白名单

感觉新鲜的话,可以先从最简单的开始:把手机配对到 OpenClaw,让 AI 拍一张照。


关注公众号,后台回复「OpenClaw」获取OpenClaw多agent协作完整部署指南

one more thing,我建了一个免费AI SaaS出海交流群,感兴趣的朋友可以后台留言。
往期文章精选:
这个落地页是AI做的,但没人信
斯坦福新课CS146S:“0代码”计算机课在教啥东西?
YC的隐藏公式:100个用户,每月100美元→1万美元MRR
Reddit增长密码:3天350 Karma,413K曝光背后的战略逻辑
SuperClaude:给 Claude Code 加一套工作流系统
用 Claude Code 实现"改完代码,文档自动更新"
Cursor 大升级、Anthropic 疯狂扩张:不会编程的人,靠 AI 接单月入 2 万的完整路径
字节跳动放大招:免费 AI 视频工具 Seedance 2.0,普通人怎么用它赚钱?
OpenClaw 多 Agent 协作:一个人管理 5 个 AI 员工
用 OpenClaw 全自动运营小红书:从内容生成到一键发布
从发现关键词到网站上线,我的 AI 团队只用了 15 分钟
我怎么用 OpenClaw 自动捕捉 SEO 关键词机会

我是Victor专注于分享AI工具、创业思路、产品设计、推广方法。