这几天,一个叫 OpenClaw(俗称「龙虾」)的开源 AI 工具从爆火到被抵制,只用了短短几周。
3 月初,它还是 GitHub 上的明星项目,几天内收获 10W+ star,被称为「现实版的 Jarvis」。技术圈的朋友都在朋友圈晒自己的「龙虾」配置,分享它如何帮自己自动化处理工作。
但到了 3 月中旬,画风突变——
工信部发布「六要六不要」安全建议 多家国有银行明令禁止员工安装 全国多所高校发出「立即卸载,发现严肃处理」的通知 国家互联网应急中心点名警告四大安全风险
一个开源工具,为什么会在这么短的时间内从「神器」变成「风险源」?
▶什么是 OpenClaw?为什么这么火?
先说人话版解释。
OpenClaw 是一个本地 AI 助手,你可以把它理解成安装在你自己电脑上的「私人秘书」。它不是像 ChatGPT 那样的网页服务,而是运行在你自己的设备上。
它能干什么?
自动帮你跑代码、提交 Git 记录 定时提醒你该做什么事 通过微信、Slack 等聊天工具接收你的指令 记住你的习惯和偏好,越用越懂你 安装各种「技能」插件,扩展功能
听起来很美好,对吧?而且主打「隐私可控」——所有数据都在你本地处理,不上传到云端,这在 AI 时代确实很有吸引力。
这也是为什么它一开始就爆火:既解决了 AI 工具的隐私痛点,又能真正「干活」,不是只会聊天的花瓶。
▶问题出在哪?为什么突然被抵制?
技术圈有句话:能力越强,责任越大。
OpenClaw 的强大能力,恰恰也是它最大的风险来源。我从三个角度说说这个问题。
风险一:它真的能「执行」操作
这是核心问题。
OpenClaw 不是那种只能陪你聊天的 AI,它能真正操作你的电脑——运行命令、读写文件、访问网络、执行脚本。
这就像你请了个秘书,但这个秘书不仅能帮你整理文件,还能直接拿你的银行 U 盾、替你登录公司内网、用你的账号发邮件。
如果这个「秘书」被「坏人」控制了怎么办?
这就是安全专家最担心的事。OpenClaw 的默认安全配置比较宽松,如果不当部署到公网上,黑客可能通过它远程控制你的电脑。
国家互联网应急中心指出的「提示词注入」风险,说的就是这个——通过精心设计的对话,诱骗 AI 执行它本不该执行的操作。
风险二:很多人「裸奔」式使用
OpenClaw 的正确使用姿势,是部署在隔离环境里,比如虚拟机、Docker 容器,配上严格的权限管理。
但现实是,大量普通用户(甚至很多技术人员)直接在自己的主力电脑上安装,用默认配置,甚至把管理端口开放到公网上方便远程访问。
这就好比:你把保险柜的密码贴在了门上,还开了个「欢迎使用」的牌子。
国家网络安全通报中心的监测数据显示,全球活跃的 OpenClaw 互联网资产已超 20 万个,其中境内约 2.3 万个。这些暴露在公网上的实例,有多少是安全加固过的?答案不容乐观。
风险三:它可能接触到你的「所有秘密」
OpenClaw 要帮你处理工作,自然需要访问你的文件、系统、账号。在办公场景下,这意味着:
公司的代码库 内网系统权限 客户数据 财务信息 员工个人信息
一旦出事,不是「我电脑中病毒了」这么简单,而是整个组织的安全边界被突破。
这就是为什么金融机构、政府部门、高校对它如此敏感——它们手里有大量敏感数据,容不得半点闪失。
▶抵制 OpenClaw,是因噎废食吗?
看到这里,你可能会问:那是不是所有人都不能用 OpenClaw 了?
我的看法是:不是不能用,而是要懂得怎么用。
为什么机构要一刀切?
对于银行、政府、高校这些组织来说,他们面临一个现实难题:
技术人员水平参差不齐 很多人不懂安全配置 出事后的代价太大
在这种情况下,「一律禁止」是成本最低、风险最小的选择。这不是针对 OpenClaw,任何类似的强大工具,只要安全门槛高、风险大,他们都会这样处理。
个人用户该怎么看?
如果你是个人用户,想在家里的电脑上玩玩 OpenClaw,我的建议是:
可以用,但要守住几条底线:
- 不要在主力机上直接安装
——用虚拟机或旧设备 - 不要开放公网访问
——本地用就行,别远程 - 不要给它太多权限
——能不给的系统权限就不给 - 不要让它接触敏感数据
——银行卡密码、公司机密别往里放 - 保持更新
——关注官方安全公告,及时升级
技术的本质是工具
OpenClaw 本身不是「坏东西」,它是一个技术创新,代表了 AI Agent 的发展方向。这次风波,更像是一次集体性的「安全教育」。
它提醒我们:在 AI 越来越强大的时代,安全意识和安全能力,也得跟上。
就像汽车发明后,我们制定了交通规则;AI 工具普及后,我们也需要建立相应的安全规范和使用礼仪。
▶这件事给我们什么启示?
OpenClaw 的过山车式经历,其实折射出几个更深层的问题:
1. 技术传播的速度 > 安全认知的速度
一个工具从发布到爆火,可能只需要几天。但让普通用户理解它的安全风险、掌握正确的使用方法,可能需要几个月甚至几年。
这个「时间差」,就是风险窗口期。
2. 开源工具的「安全门槛」问题
很多开源项目默认面向技术人员,文档假设用户具备一定的安全知识。但当工具出圈、面向大众时,这个假设就不成立了。
如何让强大的工具变得「安全地易用」,是整个行业需要思考的问题。
3. AI 时代的安全范式需要重构
传统安全防护,主要防的是「外部攻击」。但 AI 工具带来的是「内部风险」——它本身是被你信任的,但如果它被误导、被利用,后果可能比外部攻击更严重。
这需要新的安全思路和技术方案。
▶写在最后
OpenClaw 的故事还没结束。
从技术角度看,它依然是 AI Agent 领域的一个标杆项目。这次风波之后,我相信它会迭代出更安全的默认配置、更完善的文档、更友好的用户引导。
而对于我们普通用户来说,这也是一次难得的学习机会——
理解工具的能力边界,建立基本的安全意识,在享受技术便利的同时,守住安全底线。
毕竟,在 AI 时代,「会用工具」和「会用工具但不把自己置于险境」,是两回事。
你用过 OpenClaw 或类似的 AI 工具吗?对于这件事,你有什么看法?欢迎在评论区聊聊。
夜雨聆风