
2026年春天,一只红色的“龙虾”爬上了很多人的桌面。
它当然不是餐桌上的那一只,而是一个名为 OpenClaw 的开源 AI 智能体框架。和人们熟悉的聊天型 AI 不同,OpenClaw 最打动人的地方,不是“会回答”,而是“会做事”:无缝接入邮件、日历、聊天工具,整理资料、起草内容、执行流程,甚至可以在后台持续运行。
一夜之间,OpenClaw 火了。
有人把它装进电脑,像“养龙虾”一样研究、调教,期待它像真正的助理一样替自己查资料、整理文件、发邮件、跑流程;也有人在短暂兴奋后迅速卸载,担心数据外泄、权限失控,甚至“帮倒忙”。
从“排队安装”到“排队卸载”,这场热潮映照出的,其实是人们面对 AI 时两种并行的情绪:一种是怕跟不上的焦虑,一种是怕失去控制的警惕。
本期《浸透热点》,我们专访香港浸会大学(浸大)计算机科学系助理教授黄隆锴教授,从 OpenClaw 的走红原因、适用场景与安全风险谈起,拆解这场“养龙虾”热背后,更值得被看见的技术真相。
01
OpenClaw横空出世:
从“纯聊天”到变身“私人助理”
为什么 OpenClaw 会突然成为热话?
在黄教授看来,关键在于,它不是传统意义上的聊天机器人,而是一个可以直接参与做事的AI Agent 框架。

它和大众熟悉的 ChatGPT、DeepSeek 这类‘问一句、答一句’的生成式AI工具不完全一样。后者擅长理解语言、生成答案;而 OpenClaw 更进一步,它可以真的实现听到你的命令之后,帮你去做具体的事。
换言之,它的重点不只是“会说”,而是“能做”。
黄教授指出,这类工具最核心的特征,是拥有持续记忆、能够调用外部工具,并可在后台持续执行任务。表面上,它可能只是一个对话框;但实际上,它背后做的,可能是整理资料、查邮件、调日历、跑流程,甚至串联不同平台完成一整套流程。

这也是为什么,它和一般聊天型 AI 工具相比,给人带来一种更强的“行动感”。人们关注它,不只是因为它能回答问题,更因为它开始接近一种“能做事的助手”。
不少人安装“龙虾”,并不是因为自己已经有一整套成熟需求,而是因为他们隐约感到,一种新的工作方式正在成形:过去分散在不同软件和平台中的动作,似乎第一次有机会被自然语言统一协调起来。
从这个角度看,OpenClaw 的爆红,并不没有原因。
02
从排队安装到排队卸载:
FOMO之下,一场从兴奋到冷静的回摆
不过,热潮来得快,回摆也来得快。
OpenClaw 走红后,互联网上很快出现一波“养龙虾潮”。不少用户一边研究如何部署,一边分享使用心得,仿佛谁先上手,谁就率先摸到了下一代生产力工具的边缘。

在黄隆锴教授看来,这股热潮并不难理解。
“OpenClaw 最大的特点,就是它把一套原本听起来颇有门坎的 AI Agent 框架,包装成了一个可以快速安装、迅速上手的系统。而且,它还带着某种很强的诱惑感——你只要给它一个命令,它好像真的就能替你去执行。”
但与此同时,另一股“卸载潮”也迅速出现。
黄教授认为,这波现象背后,有相当一部分来自技术焦虑与FOMO(Fear of Missing Out)心理。“因为AI 更新太快,新工具层出不穷,所以大家就害怕,别人都在用这么先进的生产力,我没有这样的生产力工具,我会不会落后于别人?”
许多人第一时间装上 OpenClaw,并不完全因为已有明确需求,而是出于一种“不能落后”的本能:先跟上、先看懂、先体验,再说。
只是,真正用下来之后,现实也迎面而来。它终究不是一部全能的“许愿机”,不可能一下子把所有任务都替你完成。这也正是许多人从“安装”走向“卸载”的原因——最初驱动他们的,是情绪;最后决定去留的,还是具体场景。
说到底,工具有没有价值,不在于一时热不热,而在于它能不能真正进入工作流。
03
OpenClaw更适合谁?
它不是所有人的“万能搭子”
那么,什么样的人,真正适合用 OpenClaw?
黄教授的判断很明确:这类工具更适合那些重复性任务多、跨平台操作多、希望把零散工作流程自动串起来的人。
对于个人用户而言,它可以帮助做信息整理、提醒事项、处理日常事务协同;对于企业用户而言,它更适合运营、知识管理、流程自动化等应用场景。企业若能合理部署类似框架,也有机会为员工提升整体效率。

但黄教授也提醒,他自己不会把 AI 当成“最后判断者”。“因为 AI 很擅长生成‘看起来合理’的内容,但看起来合理,并不等于真的可靠。”
所以,与 AI 协作最重要的能力之一,不是提问,而是验证。不是只看答案像不像对,而是要能判断哪里可能有问题、它用了什么方法、哪一步最容易出错。
04
“六要六不要”之外:
最安全的方式,是坚持最小权限原则
这场风潮真正值得警惕的地方,在于 OpenClaw 不再只是“会说”,而是开始“做事”。
黄教授指出,风险不只是“答错问题”,而是做错事情。一旦这类工具可以接触文件、邮箱、浏览器乃至系统权限,风险就会从内容错误,变成现实后果:误删内容、发错邮件、私隐外泄、Token 被滥用,甚至在恶意注入下触发本不该发生的动作。

针对相关风险,工信部不久前提出了“六要六不要”。在黄教授看来,这是一个必要的起点。它可以提醒用户注意风险,但真正关键的,不只是“有原则”,而是这些原则有没有落实到具体机制之中。
在这方面,黄教授特别强调“最小权限原则”:低风险任务可以让 AI 自动处理,高风险任务必须保留人工确认。最危险的,不是 AI 本身,而是把“读取敏感信息”和“执行关键动作”同时交给它。
而在防止依赖方面,黄教授也给出一个很重要的判断:不要把它变成唯一入口。关键流程应保留人工理解、备份与复核机制。
回头看这只“龙虾”,它最重要的意义,也许不在于它到底值不值得养,而在于它让更多人开始更早地思考:当 AI 不再只负责回答,而开始替你行动,我们该如何与它相处?
答案大概不是全盘拥抱,也不是彻底拒绝。







夜雨聆风