乐于分享
好东西不私藏

OpenClaw爆红背后:为什么它让AI Agent更像“同事”,也更像一台危险的工作电脑

OpenClaw爆红背后:为什么它让AI Agent更像“同事”,也更像一台危险的工作电脑

OpenClaw 这波热度,表面上看是在讲 Agent 爆发,实际上更像一次提前到来的压力测试:当 
AI 不再只是回答问题,而是开始接触文件、消息、账号和真实工具,安全问题就不再是“以后再说”。它为什么火,和它为什么危险,恰恰是同一个答案。

文|庹颖涛编辑|庹颖涛来源|Hive硅基秩序封面来源|图片来源网络

01 OpenClaw为什么突然红了:它不是一个更会聊天的 Chatbot,而是一个开始“替你动手”的 AI Agent

如果只看表层,OpenClaw 很容易被误读成又一个聊天产品,或者又一个“套了大模型壳子”的 AI 助手。但官方给它的定位其实很明确:它是一个运行在你自己设备上的 personal AI assistant,通过 Gateway 连接你已经在用的聊天入口,再把模型、工具和执行能力接起来。GitHub README 里列出的渠道甚至包括 WhatsApp、Telegram、Slack、Discord、Microsoft Teams、飞书 等;推荐安装路径里也直接把 gateway、workspace、channels、skills 放在同一个 onboarding 流程里。换句话说,它从一开始就不是只想做一个“会答题的对话框”,而是想做一个“会接任务的执行入口”。

这也是 OpenClaw 能迅速被讨论起来的原因。过去很多 Chatbot / 聊天机器人 的边界很清楚:你问,它答,最多再帮你整理点内容。但 AI Agent / 智能体 不是这个逻辑。它更像一个数字化执行者,你给它一个目标,它可以去查资料、调工具、连渠道、处理会话,甚至在合适配置下继续推进动作。OpenClaw 的 Control UI 文档里已经把这件事写得很直白:它能通过同一套界面处理聊天、会话、定时任务、Skills、配置、日志、更新,以及执行批准等控制面能力。这个产品形态,明显比“聊天窗口”更接近“本地 AI 中控台”。

Agent 是什么?

如果说传统 Chatbot 更像“一个会说话的网页标签页”,那 AI Agent 更像“一个会理解目标、还能调工具办事的数字同事”。它的关键不只是会回答,而是会执行。

更值得注意的是,OpenClaw 的火,并不是只靠“概念对了”。它还踩中了现在 Agent 领域最容易传播的几个点:开源、自托管、多渠道接入、工作区、Skills、控制面板。这些词放在一起,对开发者是可玩性,对产品经理是想象空间,对创业者是入口焦虑,对普通科技读者则是一个更容易理解的画面:AI 不只是回答你,而是开始像一个助手一样待在你的工作流里。官方文档里甚至明确把它描述成 “one trusted operator boundary, potentially many agents”,意思很简单,它从架构上就不是“一个聊天页签”,而是一个围绕单一信任边界运转的智能体系统。

这也是为什么它会被很多人拿来和 Manus、更广义的 Agent 产品,甚至一些“下一代操作入口”放在一起讨论。不是因为它已经成熟到能代表未来,而是因为它比很多只停留在演示视频里的产品,更早把那个问题摆到桌面上了:当 AI 真的开始接你的文件、消息、账号和工具 时,我们到底是在得到一个助手,还是在放进来一个新的高权限系统?

02 OpenClaw吸引人的地方,恰恰也是风险开始放大的地方

OpenClaw 之所以让人上头,本质上不是因为它比别的大语言模型更聪明,而是因为它更接近“会替你动手”。但问题也恰恰出在这里。你给一个模型更多真实世界能力,它的价值会提高,风险也会同步抬高,而且这两件事几乎是绑定出现的。

先看官方文档自己怎么说。OpenClaw 的安全文档写得非常坦率:它支持的安全姿态是 one user / trust boundary per gateway,不建议把一个共享 Gateway 当成多个互不信任用户之间的安全边界;如果多个不受信任的人都能给同一个可调用工具的 agent 发消息,那么他们本质上是在共享同一套“被委托的工具权限”。文档甚至直接说,OpenClaw 既是产品,也是实验,因为你是在把前沿模型行为接到真实的消息面和真实工具上;没有“完美安全”的配置,合理的做法只能是从最小权限开始,再逐步放宽。

这段话其实特别重要。因为它几乎把 OpenClaw 这类系统和传统软件的区别说透了。普通 App 出问题,很多时候是某个功能点暴露了漏洞;但 OpenClaw 这类 Agent runtime 的问题在于,它天然会跨越多个层:会话、记忆、配置、消息渠道、外部服务、宿主机工具。也就是说,它的风险不一定来自“某个单点 bug”,更可能来自“多个本来都看起来正常的能力被串在了一起”。

AI Agent 最迷人的地方,是它终于开始接触真实工作;AI Agent 最危险的地方,也正是它终于开始接触真实工作。

再看 Skills 这一层,就更明显了。官方文档写得很清楚:OpenClaw 用兼容 AgentSkills 的 Skill 文件夹教智能体如何使用工具,每个 Skill 都是一个带 SKILL.md 的目录,Skills 可以来自内置、本地目录、工作区目录,还可以通过 ClawHub 发现、安装、更新和备份。与此同时,官方也明确提醒:将第三方 Skills 视为不受信任代码,启用前请先阅读;对于高风险工具,优先使用沙箱隔离运行。 这句话翻译成人话就是:你以为你是在“给 AI 装插件”,实际更接近于“给一个拥有执行上下文的系统接入新的代码与行为说明”。

这也是为什么最近围绕 OpenClaw 的讨论里,安全问题不是配角,而是主角之一。因为当一个系统同时具备以下几个特征时,风险模型就已经变了:第一,它有持续运行的宿主环境;第二,它可能持有 token、密码、API key 或 OAuth 授权;第三,它能接收外部文本、网页、消息等不受信任输入;第四,它还能把这些输入和本地能力拼起来执行。你会发现,这不是传统“软件漏洞”那条线,而更像“权限 + 自动化 + 持续状态 + 外部输入”交叉出来的新攻击面。

03 Microsoft为什么会专门提醒:不要把OpenClaw直接跑在你的日常电脑上

这条提醒之所以出圈,不是因为“微软突然不喜欢 Agent”,而是因为它把很多人还没来得及说透的问题,直接用一句很重的话说出来了。微软安全博客 2 月 19 日的原文里写得非常明确:OpenClaw should be treated as untrusted code execution with persistent credentials. It is not appropriate to run on a standard personal or enterprise workstation. 按它的建议,如果组织一定要评估 OpenClaw,应只在完全隔离的环境里部署,比如专用虚拟机或独立物理设备;并且使用专用、低权限凭证,只访问非敏感数据,同时配套持续监控和重建计划。

这段话值得慢一点看。微软没有说“OpenClaw 本身就是恶意软件”,也没有说“不要研究 Agent”。它强调的是另一件更现实的事:这类自托管 Agent runtime 的运行方式,本身就应该被当成不受信任执行环境来对待。 原因也在原文里写得很直白:凭证和可访问数据可能被暴露或外传;agent 的持久状态或“记忆”可能被修改,从而长期跟随攻击者注入的指令;宿主环境也可能因为 agent 被诱导去检索并执行恶意代码而被攻陷。

这里最容易被误解的一点是: 微软提醒的重点,不是“OpenClaw 有某一个吓人的单点漏洞”,而是这类 Agent 的运行机制,本来就不该被当成普通软件那样部署。

为什么会这样?因为标准个人电脑或企业工作站,通常默认承载了太多高价值东西:浏览器登录态、日常办公账号、聊天记录、云盘、密码管理器、敏感文档、公司网络权限。一个传统 App 即便有问题,很多时候还需要特定漏洞链才能扩大影响;但 OpenClaw 这种系统有时不需要“绕过”那么多防线,它只需要在你已经给它的权限范围内,做出一次本来不该做的动作。微软原文里甚至把这类系统面临的两条供应链讲得很清楚:一条是不受信任代码,比如 Skills 和扩展;另一条是不受信任指令,比如来自外部文本的内容注入。这两条链在自托管 Agent 身上会汇成同一个执行闭环。

这也是为什么“我只是本地跑一下”“我只是试试看”这种想法,在 Agent 时代没那么轻松了。因为你试的不是一个单纯的前端应用,也不是一个只读型模型,而是一个可能会保留状态、继承凭证、接触宿主环境、读取外部信息并继续调用工具的系统。它的危险性,不完全取决于它有没有被黑,很多时候也取决于它是不是在一个本来就太值钱的环境里运行。

04 最近这些安全新闻,说明攻击者已经盯上了OpenClaw热度

如果说微软那篇文章更像“结构性提醒”,那最近几条安全新闻就更像“现实开始跟上理论”。过去几天里,Huntress 分析的一起事件显示,攻击者利用 OpenClaw 热度在 GitHub 上投放伪装仓库,并借 Bing AI 搜索建议链路把用户导向恶意下载地址;相关样本会投递 Vidar 信息窃取木马,有时还会带上 GhostSocks,把设备变成住宅代理节点。BleepingComputer 和 TechRadar 对同一事件的报道都指出,伪仓库在外观上足够像真的,且“托管在 GitHub”本身就会给很多用户带来额外信任感。

这件事本身当然可以被理解成“蹭热点投毒”,类似当年 ChatGPT 爆红时假客户端满天飞。但放在 OpenClaw 身上,它的危险又更高一层。因为攻击者并不是随便蹭一个热词,而是在蹭一个本来就会接触本地文件、执行命令、使用凭证、连接消息渠道的系统。也就是说,一旦用户因为“想装一个更能干活的 Agent”而中招,后续损失会比普通假软件下载更敏感。

更麻烦的是,这类攻击很符合现在的用户心理。OpenClaw 已经在 GitHub 上快速聚拢了非常高的人气,官方仓库也把 onboarding、wizard、gateway、skills 这些安装与使用入口做得很完整,意味着“想试一下”的用户会越来越多。热度、开源、GitHub 托管、搜索引擎推荐,这几个因素叠在一起,本来就很容易成为攻击者最喜欢的温床。

一个产品真正进入主流讨论,往往不是从更多教程开始,而是从攻击者也开始认真研究它开始。

05 这是不是意味着OpenClaw不能用?也不是,但前提要换掉

写到这里,一个很自然的问题是:那是不是别碰 OpenClaw 了?也不至于。更准确的说法可能是:不要把它按普通 App 的方式来使用。 这也是官方和微软提醒之间一个很微妙、但其实一致的地方。官方安全文档强调 单一信任边界、最小权限、分隔 Gateway、定期审计与沙箱隔离;微软则强调 隔离环境、专用凭证、非敏感数据和持续监控。两边的语言风格不同,但底层逻辑非常接近:你要么把它当“实验性高权限系统”对待,要么就别急着把它接进你的真实主力环境。

对于普通用户来说,这里面最重要的不是记住一堆术语,而是换一个心理模型。不要把 OpenClaw 当成“下载一个新效率工具”;更接近的理解应该是:你在部署一套会持续运行、可能接触账号和文件、还能根据外部输入做动作的自动化执行系统。 一旦这么理解,很多操作习惯就会自然改变。比如,不要把它直接装在你的日常办公主力机上;不要上来就接最敏感的邮箱、云盘、企业 IM;不要因为某个 Skill 名字很诱人就直接安装;不要默认共享 Gateway 能安全服务多个边界完全不同的人。

如果真的要体验,比较稳的起手式大概是这样:用独立环境测试;凭证专门创建、权限尽量低;先喂非敏感数据;先用低风险 Skill;让日志和可回滚机制在前面,而不是出事以后再补。微软把“隔离、低权限、持续监控、可重建”当成最低运行姿态,官方则建议从最小权限开始并使用 openclaw security audit 做检查。你会发现,这不是“过度谨慎”,而是在承认一个事实:Agent 的价值越真,运行它的代价就越不能假装不存在。

06 OpenClaw真正值得关注的,不只是它火了,而是它把Agent时代的难题提前摊开了

回到最开始那个问题:OpenClaw 为什么红?因为它让很多人第一次比较具体地看见,AI Agent 不再只是“问答增强版”,而是开始变成一种可以接工作流、接渠道、接工具、接状态、接记忆的运行时。 也正因为它更像真东西,所以 安全、权限、隔离、供应链和多用户边界 这些问题,才会被提前放大出来。

从这个角度看,微软那句“不要直接跑在标准个人或企业工作站上”,未必只是对 OpenClaw 一家说的话。它大概率也是对整个 Agent 时代的一次预演提醒:以后所有“能替你动手”的系统,都会同时拥有两张脸。一张脸是效率革命,另一张脸是权限现实。前者让人兴奋,后者逼人冷静。

所以,如果非要给这轮 OpenClaw 热度下一个更准确的注脚,我会更愿意这样说:它火,不只是因为它更像未来;它危险,也正是因为它更像未来。真正需要被认真讨论的,已经不是“Agent 会不会来”,而是“Agent 来的时候,我们准备好怎样的安全边界去接它”。

结尾

OpenClaw 这波热度,真正有价值的地方,不在于又出现了一个新名字,而在于它把 AI Agent 从“会聊天”推进到了“会碰权限”。 这可能是它最吸引人的地方,也可能是它最该被谨慎对待的地方。 接下来真正决定这类产品能不能走远的,可能不只是模型能力,而是谁先把“可控地替你动手”这件事做明白。


⭐点赞、转发、在看一键三连⭐点亮星标,不错过 Hive 硅基秩序 每一篇关于 Agent 时代的关键信号

往期精选庹颖涛,公众号:Hive硅基秩序