乐于分享
好东西不私藏

OpenClaw 被抵制的背后是什么?

OpenClaw 被抵制的背后是什么?

这几天,一个叫 OpenClaw(俗称「龙虾」)的开源 AI 工具从爆火到被抵制,只用了短短几周。

3 月初,它还是 GitHub 上的明星项目,几天内收获 10W+ star,被称为「现实版的 Jarvis」。技术圈的朋友都在朋友圈晒自己的「龙虾」配置,分享它如何帮自己自动化处理工作。

但到了 3 月中旬,画风突变——

    1. 工信部发布「六要六不要」安全建议
    2. 多家国有银行明令禁止员工安装
    3. 全国多所高校发出「立即卸载,发现严肃处理」的通知
    4. 国家互联网应急中心点名警告四大安全风险

一个开源工具,为什么会在这么短的时间内从「神器」变成「风险源」?


什么是 OpenClaw?为什么这么火?

先说人话版解释。

OpenClaw 是一个本地 AI 助手,你可以把它理解成安装在你自己电脑上的「私人秘书」。它不是像 ChatGPT 那样的网页服务,而是运行在你自己的设备上。

它能干什么?

    1. 自动帮你跑代码、提交 Git 记录
    2. 定时提醒你该做什么事
    3. 通过微信、Slack 等聊天工具接收你的指令
    4. 记住你的习惯和偏好,越用越懂你
    5. 安装各种「技能」插件,扩展功能

听起来很美好,对吧?而且主打「隐私可控」——所有数据都在你本地处理,不上传到云端,这在 AI 时代确实很有吸引力。

这也是为什么它一开始就爆火:既解决了 AI 工具的隐私痛点,又能真正「干活」,不是只会聊天的花瓶。


问题出在哪?为什么突然被抵制?

技术圈有句话:能力越强,责任越大。

OpenClaw 的强大能力,恰恰也是它最大的风险来源。我从三个角度说说这个问题。

风险一:它真的能「执行」操作

这是核心问题。

OpenClaw 不是那种只能陪你聊天的 AI,它能真正操作你的电脑——运行命令、读写文件、访问网络、执行脚本。

这就像你请了个秘书,但这个秘书不仅能帮你整理文件,还能直接拿你的银行 U 盾、替你登录公司内网、用你的账号发邮件。

如果这个「秘书」被「坏人」控制了怎么办?

这就是安全专家最担心的事。OpenClaw 的默认安全配置比较宽松,如果不当部署到公网上,黑客可能通过它远程控制你的电脑。

国家互联网应急中心指出的「提示词注入」风险,说的就是这个——通过精心设计的对话,诱骗 AI 执行它本不该执行的操作。

风险二:很多人「裸奔」式使用

OpenClaw 的正确使用姿势,是部署在隔离环境里,比如虚拟机、Docker 容器,配上严格的权限管理。

但现实是,大量普通用户(甚至很多技术人员)直接在自己的主力电脑上安装,用默认配置,甚至把管理端口开放到公网上方便远程访问。

这就好比:你把保险柜的密码贴在了门上,还开了个「欢迎使用」的牌子。

国家网络安全通报中心的监测数据显示,全球活跃的 OpenClaw 互联网资产已超 20 万个,其中境内约 2.3 万个。这些暴露在公网上的实例,有多少是安全加固过的?答案不容乐观。

风险三:它可能接触到你的「所有秘密」

OpenClaw 要帮你处理工作,自然需要访问你的文件、系统、账号。在办公场景下,这意味着:

    1. 公司的代码库
    2. 内网系统权限
    3. 客户数据
    4. 财务信息
    5. 员工个人信息

一旦出事,不是「我电脑中病毒了」这么简单,而是整个组织的安全边界被突破

这就是为什么金融机构、政府部门、高校对它如此敏感——它们手里有大量敏感数据,容不得半点闪失。


抵制 OpenClaw,是因噎废食吗?

看到这里,你可能会问:那是不是所有人都不能用 OpenClaw 了?

我的看法是:不是不能用,而是要懂得怎么用。

为什么机构要一刀切?

对于银行、政府、高校这些组织来说,他们面临一个现实难题:

    1. 技术人员水平参差不齐
    2. 很多人不懂安全配置
    3. 出事后的代价太大

在这种情况下,「一律禁止」是成本最低、风险最小的选择。这不是针对 OpenClaw,任何类似的强大工具,只要安全门槛高、风险大,他们都会这样处理。

个人用户该怎么看?

如果你是个人用户,想在家里的电脑上玩玩 OpenClaw,我的建议是:

可以用,但要守住几条底线:

  1. 不要在主力机上直接安装
    ——用虚拟机或旧设备
  2. 不要开放公网访问
    ——本地用就行,别远程
  3. 不要给它太多权限
    ——能不给的系统权限就不给
  4. 不要让它接触敏感数据
    ——银行卡密码、公司机密别往里放
  5. 保持更新
    ——关注官方安全公告,及时升级

技术的本质是工具

OpenClaw 本身不是「坏东西」,它是一个技术创新,代表了 AI Agent 的发展方向。这次风波,更像是一次集体性的「安全教育」。

它提醒我们:在 AI 越来越强大的时代,安全意识和安全能力,也得跟上。

就像汽车发明后,我们制定了交通规则;AI 工具普及后,我们也需要建立相应的安全规范和使用礼仪。


这件事给我们什么启示?

OpenClaw 的过山车式经历,其实折射出几个更深层的问题:

1. 技术传播的速度 > 安全认知的速度

一个工具从发布到爆火,可能只需要几天。但让普通用户理解它的安全风险、掌握正确的使用方法,可能需要几个月甚至几年。

这个「时间差」,就是风险窗口期。

2. 开源工具的「安全门槛」问题

很多开源项目默认面向技术人员,文档假设用户具备一定的安全知识。但当工具出圈、面向大众时,这个假设就不成立了。

如何让强大的工具变得「安全地易用」,是整个行业需要思考的问题。

3. AI 时代的安全范式需要重构

传统安全防护,主要防的是「外部攻击」。但 AI 工具带来的是「内部风险」——它本身是被你信任的,但如果它被误导、被利用,后果可能比外部攻击更严重。

这需要新的安全思路和技术方案。


写在最后

OpenClaw 的故事还没结束。

从技术角度看,它依然是 AI Agent 领域的一个标杆项目。这次风波之后,我相信它会迭代出更安全的默认配置、更完善的文档、更友好的用户引导。

而对于我们普通用户来说,这也是一次难得的学习机会——

理解工具的能力边界,建立基本的安全意识,在享受技术便利的同时,守住安全底线。

毕竟,在 AI 时代,「会用工具」和「会用工具但不把自己置于险境」,是两回事。


你用过 OpenClaw 或类似的 AI 工具吗?对于这件事,你有什么看法?欢迎在评论区聊聊。