从0到AI,每天为你拆解 AI 工具的实战用法与部署技巧。全文约 3500 字,建议收藏慢读。
"AI 不只是能回答问题——它还可以拍照、录屏、知道你在哪里。"
"把手机变成 AI 的眼睛和耳朵,只需要一个 App。"
"Node 系统是 OpenClaw 最容易被忽视、却最有意思的部分。"
AI 的局限:只会"说",不会"看"
我们用 AI 助手的方式,大多是这样的:打字、发问、等回答。
这没什么问题。但有时候你会希望 AI 不只是回答——你希望它能主动感知世界。
比如:
你让 AI 帮你监控家里的状况,它能直接调用摄像头看一眼吗? 你让 AI 知道你现在在哪里,它能直接读取位置吗? 你让 AI 在你的电脑上执行命令、截屏、或者发送桌面通知,它能做到吗?
通常这些都要绕很大一圈——第三方 API、手动授权、复杂的配置。
OpenClaw 的 Node 系统,换了一种思路。
Node 是什么?一句话解释
Node(节点)就是你配对到 OpenClaw 的设备。
可以是你的手机(iOS 或 Android),可以是你的 Mac,也可以是家里的树莓派、服务器——任何能跑 OpenClaw App 或 Node Host 的机器。
配对之后,这台设备就变成了 AI 可以直接调用的"外设"。
AI 可以通过这台设备:
拍照(前置摄像头、后置摄像头) 录视频 截屏、录屏 查位置 发送桌面通知 在设备上执行命令 读取 Android 的通知列表、联系人、日历
设备本身不运行 AI——AI 仍然在 Gateway 上。但 Gateway 可以把"动作"发送到节点,由节点代为执行,再把结果返回来。
配对流程:比想象中简单
配对分两步。
第一步:设备端连接到 Gateway
如果是手机 App,打开 OpenClaw,在设置里填入 Gateway 地址,App 会自动发起连接请求。
如果是 Mac 或 Linux,在终端运行:
ounter(lineopenclaw node run --host <gateway地址> --port 18789 --display-name "我的MacBook"
这会在前台启动一个 Node Host,连接到你的 Gateway。想让它在后台持续运行?用 install 命令注册成系统服务:
ounter(lineounter(lineopenclaw node install --host <gateway地址> --port 18789 --display-name "我的MacBook"openclaw node restart
第二步:在 Gateway 端批准
设备发起连接后,Gateway 会生成一个配对请求。在 Gateway 所在的机器上运行:
ounter(lineounter(lineopenclaw devices list # 看有哪些待批准的设备openclaw devices approve <requestId> # 批准
批准之后,用 openclaw nodes status 就能看到这台设备已在线。
配对完成。整个过程不需要任何 API Key,不需要端口映射(在同一局域网内的话),就是设备连 Gateway、Gateway 批准。
手机变成 AI 的摄像头
配对好手机之后,AI 可以直接拍照了。
CLI 层面是这样的:
ounter(lineounter(lineounter(lineounter(lineopenclaw nodes camera snap --node 我的iPhoneopenclaw nodes camera snap --node 我的iPhone --facing front # 前置openclaw nodes camera snap --node 我的iPhone --facing back # 后置openclaw nodes camera clip --node 我的iPhone --duration 10s # 录 10 秒视频
但更有意思的是 AI 自己调用这个能力。
比如你告诉 AI:"帮我看看桌子上有什么"——AI 发现你配了一个手机节点,直接调用 camera snap,把照片拿回来分析,然后告诉你答案。
或者你建了一个自动化流程:每天早上 AI 用手机摄像头拍一张窗外的照片,记录天气状况。
权限上,iOS 和 Android 都需要在 App 内开启"允许摄像头"。App 放到后台的时候,摄像头会暂时不可用——这是系统限制,App 在前台才能拍。
录屏:AI 的屏幕直播
除了摄像头,AI 还可以录你的屏幕。
ounter(lineopenclaw nodes screen record --node 我的MacBook --duration 10s --fps 15
这在需要 AI 分析屏幕状态的场景下很有用。比如:
让 AI 帮你 debug 一个 UI 问题——它直接录屏看 让 AI 监控某个页面是否出现了特定内容 记录工作状态,生成日报
录屏需要系统的"屏幕录制"权限,在 macOS 上第一次运行会弹出授权提示。
位置感知:AI 知道你在哪
手机节点还可以把位置分享给 AI。
默认是关闭的,需要在 App 里手动开启。支持三种模式:
关闭:AI 拿不到任何位置信息 使用期间:App 打开时可以获取位置 始终:即使 App 在后台也能获取(需要系统权限)
开启后,AI 可以这样查位置:
ounter(lineopenclaw nodes location get --node 我的iPhone
返回的数据包括经纬度、精度(米)、海拔、速度,还有时间戳。
AI 有了位置之后,能做的事情就多了。比如:根据你当前位置推荐附近的餐厅;下班路上发出提醒;记录每天的行动轨迹(当然这个涉及隐私,自己权衡)。
Android 独有:通知、联系人、日历
Android 节点比 iOS 多了一些能力,可以访问设备上的个人数据:
通知列表——AI 可以看到手机上当前有哪些通知:
ounter(lineopenclaw nodes invoke --node 我的Android --command notifications.list --params '{}'
最新照片——读取相册里的最新一张:
ounter(lineopenclaw nodes invoke --node 我的Android --command photos.latest --params '{"limit":1}'
设备状态——电量、网络连接情况:
ounter(lineopenclaw nodes invoke --node 我的Android --command device.status --params '{}'
还有联系人、日历、运动数据……这些需要在 App 里对应开启权限。
这些能力组合起来,可以搭出很有意思的东西。比如:AI 每天早上检查你的日历,结合今天的天气,给你发一条定制化的早安提醒;或者在你手机没电快关机之前,自动发消息告诉你的家人。
远程执行命令:AI 操控你的电脑
Node 最硬核的功能,是让 AI 在另一台机器上执行命令。
场景是这样的:你的 AI(Gateway)跑在 VPS 上,你的开发机是家里的 Mac。你希望 AI 在你的 Mac 上执行命令——部署脚本、查看文件、运行测试。
正常做法:SSH 进去,手动操作。
OpenClaw 的做法:把 Mac 注册为 Node Host,AI 直接通过 Gateway 远程执行:
ounter(lineounter(lineounter(line# 在 Gateway 配置里设置默认用 node 执行openclaw config set tools.exec.host nodeopenclaw config set tools.exec.node "我的MacBook"
设置完之后,AI 在 session 里发出的 exec 命令,就会转发到 Mac 上执行,结果返回给 Gateway,AI 看到输出再继续工作。
AI 不需要知道它"在哪台机器上"——它只是调用工具,底层路由由 OpenClaw 处理。
安全上,有一套"执行审批"机制。默认模式下,新命令需要手动批准;也可以设置白名单,让特定命令自动通过。这保证了 AI 不会在你的机器上乱跑命令。
桌面通知:AI 直接推送给你
配对 Mac 节点之后,AI 还能发桌面通知:
ounter(lineopenclaw nodes notify --node 我的MacBook --title "任务完成" --body "文章已生成并发送"
支持三个优先级:passive(静默)、active(正常通知)、timeSensitive(时间敏感,可穿透勿扰模式)。
这在自动化流程里很实用。比如 AI 跑完一个长任务,直接给你发一个 Mac 通知,你不用一直盯着终端。
一个典型场景:AI 家庭助理
把上面这些能力组合起来,能搭出什么?
设想这样一个配置:
Gateway 跑在家里的树莓派或者 VPS 客厅放一台旧 Android 手机,作为"监控节点" 你的 MacBook 作为"工作节点"
这样:
AI 每天早上 8 点,调用 Android 的前置摄像头拍一张照,顺带查天气,发早安消息到 Telegram 你说"帮我看看今天日历里有什么"——AI 读 Android 的日历,整理好发给你 你在外面,说"家里怎么样了"——AI 调用 Android 摄像头拍一张,分析图片,告诉你 AI 跑完长任务,给你的 Mac 发桌面通知
这不是科幻。这是 OpenClaw Node 系统可以做到的,现在,今天。
实际使用的一些注意点
关于前台限制:摄像头和 Canvas(WebView)功能,需要 App 处于前台。如果手机锁屏了或者 App 被切到后台,相关命令会返回 NODE_BACKGROUND_UNAVAILABLE。如果需要后台拍照,可以考虑用持续开着 App 的旧手机专门当节点。
关于 SSH 隧道:如果 Gateway 绑定在本地回环地址(默认是这样),远程 Node Host 无法直接连接。需要建一条 SSH 隧道:
ounter(linessh -N -L 18790:127.0.0.1:18789 user@gateway地址
然后 Node Host 连 127.0.0.1:18790 就行。
关于权限:每台设备的权限要单独开。摄像头、位置、通知、屏幕录制——每个都需要在 App 设置或系统设置里单独授权。
关于安全:执行命令这个能力很强,要谨慎配置白名单。不要随意允许 AI 执行任意命令,用 allowlist 模式,精确控制哪些命令可以跑。
写在最后
Node 系统让 AI 从"会聊天的工具"变成了"有感知能力的助手"。
它可以看(摄像头)、可以知道你在哪(位置)、可以在你的设备上做事(远程执行)、可以通知你(桌面推送)。
这些能力单独看都不惊艳。但组合起来,加上 OpenClaw 的 Heartbeat 自动化和多 Agent 协作,就能搭出一套真正主动的、感知世界的 AI 系统。
这就是 OpenClaw 设计 Node 的用意:不只是让 AI 更聪明,而是让 AI 能真正触达物理世界。
几个核心要点:
Node 是任何配对设备——手机、Mac、树莓派都行 配对只需两步:设备连 Gateway,Gateway 批准 摄像头、位置、屏幕、通知——这些能力都可以暴露给 AI Android 还多了通知、日历、联系人等个人数据访问 远程执行命令是最硬核的功能,记得配好审批白名单
感觉新鲜的话,可以先从最简单的开始:把手机配对到 OpenClaw,让 AI 拍一张照。
关注公众号,后台回复「OpenClaw」获取OpenClaw多agent协作完整部署指南
我是Victor,专注于分享AI工具、创业思路、产品设计、推广方法。
夜雨聆风