
这段时间再看 OpenClaw,我最大的感受是:它已经不太像一个单纯的 AI Agent 项目了。
早期大家理解它,可能还是“把大模型接到 WhatsApp、Telegram、Discord 上”的一个自托管网关;但现在,它正在逐渐长成一个更完整的个人 AI 中枢。从多聊天平台接入,到 Web 控制台、macOS 菜单栏、iOS/Android 节点,再到子智能体、Skills、Canvas、权限审批和安全机制,OpenClaw 最近的演进方向越来越清晰:它想做的不是一个会聊天的 Bot,而是一个真正能长期陪你工作、连接你设备、跑在你自己环境里的个人 AI 助手系统。
如果要用一句话概括 OpenClaw 最近的发展,那就是:
它正在从“AI 消息网关”,走向“个人 AI 操作系统”的雏形。
一、OpenClaw 不再只是“接入聊天软件的工具”
很多人第一次接触 OpenClaw,往往会把它理解成一个“把大模型接到聊天软件里”的项目。
这种理解不算错,但已经不够了。
从现在的产品形态来看,OpenClaw 的核心定位越来越明确:它不是某个单点场景的 bot,也不是只服务程序员的终端工具,而是一个自托管的个人 AI 助手网关。你可以把它部署在自己的电脑、服务器或者家里的常开设备上,然后通过日常已经在使用的消息渠道与它交流,同时让它调用浏览器、命令行、文件系统、设备节点、Canvas、技能系统以及定时任务等能力。
这件事的意义在于:
过去很多 AI 产品,本质上还是“你打开一个 App,主动去找它”;而 OpenClaw 想做的是“让 AI 住进你已经在使用的通信网络和设备环境里”,变成一个常驻的、持续在线的个人助手。
这也是它和很多 Demo 型 Agent 项目最大的区别之一。
二、多渠道接入这件事,OpenClaw 已经做得非常完整了
如果只是支持 Telegram 或 Discord,其实还不足以说明什么。真正有意思的是,OpenClaw 现在已经形成了一个非常完整的消息入口矩阵。
从目前公开文档和仓库信息来看,它支持的平台已经覆盖:
WhatsApp Telegram Discord Slack Google Chat Signal iMessage / BlueBubbles IRC Microsoft Teams Matrix Feishu LINE Mattermost Nextcloud Talk Nostr Synology Chat Twitch Zalo WebChat 等
这意味着 OpenClaw 做的事情,不是“给某个平台做 AI Bot”,而是在尝试做一个跨聊天生态的统一 AI 接入层。
对于普通用户来说,这个价值非常直接:你不需要为某个特定平台迁移自己的使用习惯,也不需要总是切换到某个专门的 AI 产品界面。AI 助手可以直接进入你已经熟悉的通信环境。
而对于开发者和重度用户来说,这种统一接入层还有另一个意义:
AI 能力终于可以脱离单一入口,被组织成一个长期存在的个人基础设施。
这比“再做一个聊天窗口”要大得多。
三、OpenClaw 正在补齐“可长期运行”的产品层
很多 Agent 项目最大的问题,不是没有功能,而是没有产品化。
你会发现它们很容易做出让人惊艳的演示,但很难支撑长期、真实、重复性的日常使用。因为一旦涉及配置、状态、会话、日志、更新、调试、权限、连接失败、移动端接入,这些项目往往就会暴露出明显短板。
而 OpenClaw 最近一个非常明显的变化,是它开始认真补齐这些“看起来不酷,但决定能不能长期用”的部分。
现在的 OpenClaw 已经具备了较完整的产品操作面,包括:
Web Control UI / Dashboard 会话管理 配置查看与修改 Skills 管理 定时任务管理 节点管理 更新、日志、状态和健康检查 渠道状态查看与登录流程
这说明它正在从“一个能跑起来的工程项目”,进化为“一个能被真正维护和长期使用的系统”。
换句话说,OpenClaw 不只是想让你惊叹一次,而是想让你真的把它留在身边,天天用。
四、移动节点能力,是 OpenClaw 非常有想象力的一步
如果说多渠道接入解决的是“AI 从哪里和你对话”,那么节点系统解决的就是“AI 如何感知和操作你的真实设备”。
OpenClaw 里的 Node(节点)概念非常关键。它允许 iOS、Android、macOS 设备作为“能力外设”连接进来,向 AI 助手暴露真实世界中的能力接口,比如:
相机拍照 / 视频录制 屏幕录制 地理位置 语音交互 Talk 模式 Canvas 交互界面 system.run 等系统能力
这一步其实很不简单。
因为多数 Agent 产品仍停留在“文本进,文本出”的阶段,哪怕再接几个工具,本质也还是在一个封闭的软件环境里工作。但 OpenClaw 借助节点,把手机、电脑、浏览器、摄像头、位置和语音这些能力都往 AI 工作流里拉。
这意味着什么?
意味着它在尝试把 AI 从“聊天对象”,变成一个真正可以连接现实世界设备的个人协作体。
消息软件是 AI 的入口,设备节点是 AI 的感官和手脚。
从这个角度看,OpenClaw 的潜力远不止“聊天”那么简单。
五、Canvas 和 A2UI,让 AI 开始拥有“界面表达能力”
另一个很值得关注的方向,是 OpenClaw 对 Canvas 和 A2UI 的推进。
传统的 AI 助手,基本都停留在纯文本交互层:你问一句,它回一句。哪怕回答很聪明,交互形态也仍然是线性的。
而 OpenClaw 正在尝试往前走一步:
支持 Canvas 展示 支持页面导航 支持 JS eval 支持 snapshot 支持 A2UI push / reset
这背后反映出的,不是“多了一个界面功能”,而是一个更重要的趋势:
AI 正在从“只会回复文字”,转向“可以组织一个可视化工作界面”。
一旦这个方向成熟,很多体验会发生变化:
AI 不只是告诉你结果,还能把结果呈现成可浏览、可点击、可交互的界面 AI 不只是解释任务,还能把任务状态、流程、产出展示在画布里 AI 的能力边界,不再局限于聊天窗口
未来的个人 AI 助手,可能既是一个聊天对象,也是一个动态工作台。
OpenClaw 目前虽然仍在演进中,但已经把这个方向明确摆在台面上了。
六、子智能体出现后,OpenClaw 不再只是“单线程聊天”
过去我们对 AI 助手的理解,通常还是一对一、单线程的:你提一个问题,它处理一轮,给你一个答案。
但 OpenClaw 现在已经在往“可调度的后台劳动力”方向走了。它支持子智能体(Subagents)和多智能体路由,意味着主助手可以在与你对话的同时,把某些任务拆出去,在后台运行,完成后再回报结果。
这种机制的价值非常大。
因为很多现实任务,本来就不适合用一个前台聊天线程来完成,比如:
长时间资料搜索 慢工具调用 多步分析整理 不同工作区之间的隔离执行 多模型、多成本、多思考等级的任务分配
OpenClaw 在这个方向上已经具备一些比较成熟的基础能力,比如:
后台启动子智能体任务 独立会话隔离 并发控制 不同模型和 thinking 等级覆盖 工具权限限制 任务完成后主动回报
OpenClaw 正在把 AI 助手从一个会说话的窗口,升级成一个可以被调度的数字劳动力系统。
七、Skills 体系逐渐平台化,而不只是 Prompt 拼装
另一个能体现 OpenClaw 进化方向的,是它的 Skills 系统。
很多 Agent 项目会把“能力扩展”做成一堆 prompt 模板、脚本拼接或者临时插件,这样虽然灵活,但通常不够稳定,也难以形成生态。
OpenClaw 现在的 Skills 体系已经更接近一个正式的平台层:
支持内置 Skills 支持本地托管 Skills 支持工作区 Skills 支持插件分发 Skills 支持按环境、依赖、配置做门控加载 还引入了 ClawHub 作为公开 Skills 注册表
这说明它开始认真思考:
如果未来个人 AI 助手真的成为一个长期运行的系统,那么它的能力不应该只是“临时接几个工具”,而应该像插件生态一样可安装、可管理、可分发、可升级。
这一步其实是平台化的信号。
也就是说,OpenClaw 不只是在增加功能点,它在尝试建立一个能力组织方式。而一旦这个组织方式跑通,它后续的扩展速度会比单纯堆功能更快。
八、安全与权限控制,正在成为 OpenClaw 的底层竞争力
一个真正跑在现实消息渠道、真实设备和本地系统上的 AI 助手,最怕什么?
不是功能不够,而是权限失控。
这也是为什么我认为 OpenClaw 最近另一个值得注意的变化,是它对安全、审批、配对和权限边界的重视明显增强了。
从现有文档与更新方向来看,它已经把很多安全控制做成了系统级能力,比如:
配对机制 allowlist DM pairing 设备配对审批 exec approvals deny / ask / allowlist 等执行模式 控制台首次连接配对 群聊隔离、会话隔离 将外部输入明确视为不可信数据源
与此同时,最近版本的更新也能看出它在持续补安全和鲁棒性细节,比如:
Docker 构建中防止 gateway token 泄露 插件通道 / binding 冲突快速失败 配置 schema 补全与校验 浏览器 session 生命周期加固 多个渠道的失败恢复与去重修复
这类东西不一定最吸睛,但对于真正打算长期使用的人来说,反而最重要。
因为当一个 AI 助手开始拥有“读写文件、执行命令、发送消息、访问设备”的能力时,它首先必须是一个边界清晰、可审计、可控制的系统。
从这个意义上讲,OpenClaw 的安全建设,并不是附属品,而是在给它未来更大规模的能力扩张打地基。
九、最近的更新,不只是加功能,而是在做“真实使用期”的打磨
如果你去看 OpenClaw 最近的发布说明,会发现很多更新并不是花哨的大功能,而是围绕真实使用场景的一系列改进。
产品与界面层
Android 聊天设置 UI 重设计 iOS onboarding welcome 页面加入 移动端导航和主题细节优化 聊天历史 reload storm 修复 超长聊天回复可读性优化 Sidebar 状态、技能和聊天渲染打磨
稳定性与体验层
session reset 后上下文保留修复 compaction sanity check 修复 persona / language continuity 改进 transcript 缺失时自动创建 Telegram 媒体下载 IPv4 fallback Discord metadata fetch failure 修复 browser batch act 生命周期与分发修复
安全与工程层
Docker 增加 timezone 支持 Windows 重启时抑制可见 console Docker 构建 token 泄露风险修复 插件冲突 fail-fast 配置校验补强 Anthropic 启动 crash 修复
渠道与生态层
Slack 交互式 reply 指令支持 Feishu 非 ASCII 文件名保留 Feishu 重复回复去重 Signal groups schema 补齐
OpenClaw 正在从“能跑”的阶段,进入“能长期稳定运行”的阶段。
十、为什么说 OpenClaw 正在长成“个人 AI 操作系统”的雏形?
我之所以会用“个人 AI 操作系统”这个说法,不是为了夸张,而是因为 OpenClaw 已经同时具备了几个关键特征:
1. 它有统一入口
多个聊天渠道、多个设备端口,都可以接入同一个 AI 助手。
2. 它有统一控制平面
Gateway 负责会话、路由、配置、日志、状态、权限和连接。
3. 它有统一能力调度机制
工具、Skills、节点、子智能体、浏览器、Canvas,都在被纳入一个统一调用体系。
4. 它有长期运行所需的基础设施
包括 onboarding、dashboard、health、doctor、update、approvals、session 管理等。
5. 它开始具备生态扩展属性
Skills、插件、ClawHub、节点能力,这些都在为后续扩展做准备。
如果把这些拼在一起,你会发现它的方向已经超出了传统意义上的“聊天机器人”或“命令行 Agent”。
它更像是一个以个人为中心、以消息和设备为接口、以 AI 为核心调度器的系统雏形。
当然,OpenClaw 仍然在快速演进,很多地方还没有完全成熟,也还保留着浓厚的开发者工具气质。但正因为如此,它反而更值得持续关注——你能清楚看到它不是在做一个短期风口产品,而是在逐步搭一套真正有长期价值的基础设施。
结语:OpenClaw 值得关注的,不只是“功能变多了”
回过头看 OpenClaw 最近的变化,最值得关注的其实不是“它又支持了多少平台”,也不是“它又新加了几个工具”。
真正重要的是,它的整体形态正在发生变化:
从单一聊天入口,走向跨平台统一入口 从文本助手,走向设备连接型助手 从单线程问答,走向子智能体协作 从功能堆叠,走向 Skills 平台化 从极客项目,走向可长期运行的产品系统
这也是为什么我会觉得,OpenClaw 这类项目,可能比很多表面上更热闹的 AI 应用更值得关注。
因为它在回答一个更本质的问题:
如果未来每个人都要拥有一个长期在线、能调用工具、连接设备、嵌入日常沟通网络的 AI 助手,那么它的底层系统应该长什么样?
至少目前看,OpenClaw 正在认真地给出一个答案。
附:一句话总结,适合放在文末或转发文案
OpenClaw 最近最重要的变化,不是“又加了几个功能”,而是它正在从一个 AI 消息网关,逐渐长成一个真正可长期运行的个人 AI 助手中枢,甚至已经隐约有了“个人 AI 操作系统”的雏形。
夜雨聆风