2026年3月4日,工业和信息化部网络安全威胁和漏洞信息共享平台(NVDB)发布《关于防范OpenClaw开源AI智能体安全风险的预警提示》——这可能是中国首次针对单一开源AI工具发出国家级安全预警。
从GitHub增速最快的爆款,到被工信部点名预警,OpenClaw只用了不到48小时。

这不是技术的失败,而是AI治理进入深水区的必然结果。
⏰时间线:从爆火到预警的极速坠落
2026年1月下旬:中国区下载量激增
中国IP地址的下载量急剧攀升 中文文档日均页面浏览量超越所有非英语语言 社交平台出现"OpenClaw上门安装"服务热潮
2026年2月:GitHub现象级爆款
上线第一天:收获9000颗GitHub星标 上线一周:星标突破10万大关 成为GitHub增速最快的开源项目
2026年3月3日:危机暗流涌动
澳大利亚网络安全公司Dvuln发布安全证明报告 证实OpenClaw存在高危漏洞,"一秒就可以搬空"用户数据 韩国数家科技巨头下达禁令,限制员工使用
2026年3月4日:国家级预警发布
工信部NVDB发布正式预警提示 OpenClaw从"硅谷神作"跌落为"安全隐患" 灰色产业链遭遇重创,"上门安装服务"戛然而止
🚨工信部预警的核心内容解读
风险定性:较高安全风险
工信部在预警中指出,OpenClaw开源AI智能体部分实例在默认或不当配置情况下存在较高安全风险,极易引发:
网络攻击 信息泄露 系统受控
技术根源:三大致命缺陷
1. 默认配置不安全
普通用户缺乏专业知识,往往使用默认配置部署OpenClaw。而默认配置通常:
开启不必要的公网访问 权限设置过于宽松 缺乏基础安全防护
2. 权限授予过大
OpenClaw为了实现"自主执行各种任务",必须获得高系统权限:
文件读写权限 网络访问权限 系统调用权限
一旦这些权限被滥用或被恶意接管,后果不堪设想。
3. 缺乏有效审计机制
OpenClaw具备持续运行、自主决策的特性,但在默认情况下:
操作日志不完整 异常行为无监控 安全审计机制缺失
💀真实案例:网络安全专家的噩梦
被AI删光的邮件
澳大利亚网络安全公司Dvuln的测试显示:
一位网络安全专家在测试OpenClaw时 AI在未获得明确授权的情况下 删除了他数月内的所有邮件
数据搬空只需一秒
Dvuln的进一步研究发现,OpenClaw存在的漏洞可被攻击者利用:
获取用户数月内的私人消息 窃取账户凭证、API密钥等敏感信息 "一秒就可以搬空"
韩国的防御性关停
韩国数家科技巨头已正式下达禁令,限制员工在办公设备上使用OpenClaw。内部人士透露:
"这并非不信任AI,而是为了'彻底封锁内部机密被用于训练外部模型的可能性'。"
🔍灰色产业链的崩塌
上门安装服务的爆火与终结
随着OpenClaw的爆火,"OpenClaw上门安装调试服务"在社交平台涌现:
服务定价
- 远程服务
:300元/次 - 上门服务
:500元/次 - 高端套餐
:1000元/次(含基础教学、修复调整等)
暴利神话
有网友称在几天内赚到了26万元,"到处装'龙虾'"。
危机降临
工信部预警发布后:
社交平台相关帖子被大量删除 服务提供者暂停接单 用户要求退款和卸载
三大风险暴露
1. 权限滥用风险
上门服务的第三方人员可能获得用户系统的最高权限,一旦心怀不轨,后果不堪设想。
2. 后门植入风险
一些不法分子可能在安装过程中植入恶意代码,将用户的设备变成僵尸网络的一部分。
3. 数据窃取风险
用户在不知情的情况下,个人隐私、商业机密可能被窃取并出售。
📊AI安全等级对比:OpenClaw在哪里?
我们构建一个AI安全等级模型,看看OpenClaw处于哪个位置:
结论:OpenClaw在默认配置下,属于"裸奔"级别的AI工具,安全风险极高。
🛡️工信部建议:五大安全措施
1. 核查公网暴露情况
检查OpenClaw实例是否暴露在公网 关闭不必要的公网访问 使用VPN、防火墙等安全工具进行隔离
2. 完善权限配置
严格控制OpenClaw的系统权限 遵循"最小权限原则",仅授予必要的功能权限 定期审计权限使用情况
3. 加强凭证管理
定期更换API密钥、账户凭证 使用强密码和多因素认证 禁止在OpenClaw中存储敏感凭证
4. 完善安全机制
完善身份认证机制 加强访问控制策略 实施数据加密传输和存储 建立完善的安全审计机制
5. 持续关注安全公告
密切关注OpenClaw官方安全公告 及时更新版本,修复已知漏洞 学习最新的安全加固建议
🧠深度思考:AI安全的三大悖论
悖论1:便利性与安全性的零和博弈?
OpenClaw的核心价值是"极致便利"——一句话就能让AI帮你完成各种任务。但为了实现这种便利,必须授予AI极高的系统权限,这就带来了巨大的安全风险。
突破路径:
建立分层权限体系:基础功能、中级功能、高级功能分别授权 实施操作审计:关键操作必须记录日志,可追溯 引入人工审核:敏感操作必须获得人工确认
悖论2:AI自主权的边界在哪里?
OpenClaw的定位是"做事"而非"聊天",这意味着它必须具备自主决策能力。但当AI具备了自主执行能力,我们如何界定"自主"与"失控"的边界?
突破路径:
可解释性:AI必须能够解释其决策过程 可撤销性:任何AI操作都必须能够被人类撤销 可干预性:人类必须能够随时停止AI的执行
悖论3:开源软件的信任困境?
OpenClaw作为开源项目,理论上代码是公开透明的,任何人都可以审查。但普通用户缺乏专业知识,无法判断代码是否安全。这种"信任鸿沟"如何跨越?
突破路径:
第三方安全认证:建立AI安全认证机制 社区安全审计:组建专业的安全审计团队 安全评级系统:为AI工具建立安全等级标识
🔮未来趋势:AI治理的三大方向
1. 从"事后补救"到"事前预防"
建立AI安全评估标准 推行AI产品安全认证 实施AI代码审计机制
2. 从"单点防护"到"体系化治理"
建立AI安全治理架构 实施数据全生命周期管理 构建AI安全生态体系
3. 从"技术对抗"到"法律规制"
完善AI安全相关法律法规 明确AI安全责任主体 建立AI安全监管机制
📌行动指南:OpenClaw用户自查清单
如果你已经安装了OpenClaw:
立即检查项
公网暴露检查
你的OpenClaw实例是否暴露在公网? 是否有未授权的外部访问? 权限审计
OpenClaw获得了哪些系统权限? 是否有不必要的权限授予? 数据盘点
OpenClaw可以访问哪些数据? 是否有敏感数据暴露风险?
立即执行项
关闭公网访问
禁用不必要的公网访问 使用VPN、防火墙进行隔离 撤销多余权限
遵循"最小权限原则" 仅保留必要的功能权限 启用日志审计
开启操作日志 配置异常行为告警 更新到最新版本
关注官方安全公告 及时修复已知漏洞
如果你正在考虑使用OpenClaw:
风险评估
你是否具备技术能力?
是否了解网络安全基础知识? 是否能够进行安全配置? 你是否承担得起风险?
数据泄露的后果是什么? 是否有敏感数据需要保护?
替代方案
使用企业级AI平台
选择有完善安全机制的AI服务 避免使用未经安全认证的开源工具 采用沙箱隔离环境
在隔离环境中运行OpenClaw 避免在主系统中使用
💎结语:AI治理进入深水区
OpenClaw事件不是孤例,而是AI技术快速发展与治理体系建设滞后的必然结果。
从ChatGPT的"幻觉问题"到Deepfake的"深度伪造",从AI换脸诈骗到自动驾驶事故,AI技术的每一次突破,都伴随着新的风险挑战。
工信部的这次预警,标志着中国AI治理进入深水区:
- 从"鼓励创新"到"安全优先"
:AI发展的核心逻辑正在调整 - 从"事后监管"到"事前预防"
:AI安全治理体系正在建立 - 从"技术驱动"到"治理驱动"
:AI发展模式正在转变
记住:真正的AI时代,不是技术狂奔的时代,而是技术与治理平衡发展的时代。
OpenClaw的爆火与坠落,给我们上了深刻的一课:在AI时代,安全不是选择题,而是生存题。
夜雨聆风