中国对 OpenClaw 类 AI 产品的快速限制
最近,工信部网络安全威胁和漏洞信息共享平台发布了一则通知,针对 OpenClaw 开源智能体提出安全使用建议。这则通知的名字很有意思,叫六要六不要。
OpenClaw 最近几个月火得一塌糊涂。这个开源项目让 AI Agent 能够自主执行任务,比如自动写代码,自动调用 API,自动完成工作流程。用起来确实方便,但风险也跟着来了。
为什么突然出手
工信部这次出手,速度比很多人预想的要快。
OpenClaw 这类产品的核心能力是自主执行。你告诉它一个目标,它自己规划步骤,调用各种工具,最后把结果交给你。听起来很美好,但问题也出在这里。
如果 AI 被恶意利用,后果不堪设想。比如让它自动爬取敏感数据,自动发起网络攻击,自动传播虚假信息。这些操作如果由人来执行,需要时间和技能。但交给 AI,可能几分钟就搞定了。
更麻烦的是,OpenClaw 是开源的。任何人都可以下载,修改,部署。这意味着监管难度大大增加。你没法像管公司一样管每个开发者。
六要六不要说了什么
这次发布的六要六不要,涵盖了四个主要场景,智能办公,开发运维,个人助手,金融交易。
六要包括,使用官方版本,遵循最小权限原则,定期更新补丁,监控异常行为,备份关键数据,报告安全漏洞。
六不要包括,不要赋予过高权限,不要处理敏感信息,不要完全信任输出,不要忽视审计日志,不要绕过安全验证,不要用于高风险场景。
这些建议看起来都是常识,但恰恰是常识最容易被忽视。
举个例子。很多人用 AI 助手的时候,会顺手给它各种权限。读邮件,访问日历,操作文件,甚至调用支付接口。你觉得方便,但一旦账号被黑,后果就是灾难性的。
快速限制背后的逻辑
中国对 AI 产品的监管思路,一直是先发展后规范。但这次对 OpenClaw 的限制,明显加快了节奏。
原因很简单,技术迭代太快了。等出问题再管,损失已经造成。不如提前划好红线,让大家知道什么能做,什么不能做。
这种思路在国际上也是主流。欧盟的 AI 法案,美国的 AI 安全行政令,都是在技术爆发期就介入监管。
但中国的做法有个特点,更喜欢用指导性文件而不是硬性法规。六要六不要是建议,不是命令。这给企业留了灵活空间,也给了监管调整余地。
开发者的应对之道
对于用 OpenClaw 做开发的程序员,这次通知意味着什么。
首先,官方版本一定要用。不要自己改源码,不要装来路不明的插件。官方版本至少有基本的安全保障,改过的版本谁知道加了什么。
其次,权限一定要卡死。AI 需要什么权限就给什么,不要图方便一把梭。能读就不要写,能局部就不要全局,能临时就不要永久。
第三,输出一定要审查。AI 生成的代码,写的文档,做的决策,都要有人把关。不能完全信任,也不能完全放手。
最后,日志一定要留。出了事能追溯,日常能审计。这是对自己负责,也是对用户负责。
监管与创新的平衡
有人可能会说,管这么严会不会扼杀创新。
这个担心有道理,但可能想反了。好的监管不是限制创新,而是保护创新。
想象一下,如果没有基本的安全规范,出了几起大事故,舆论反扑,政策可能会更严。到时候可能就不是六要六不要,而是直接禁用了。
相反,有了明确的边界,开发者反而能放心大胆地做。知道什么能做,就不会畏手畏脚。知道红线在哪,就能在安全范围内尽情发挥。
写在最后
这次对 OpenClaw 的快速限制,反映了一个趋势,AI 监管正在从被动响应转向主动引导。
技术本身是中性的,但使用技术的人不是。好的制度能让好人更好地做事,也能让坏人更难做坏事。
六要六不要只是开始。随着 AI 应用越来越深入,更多规范会陆续出台。这不是坏事,而是行业成熟的标志。
对于开发者来说,拥抱监管比对抗监管更聪明。在规则之内创新,比挑战规则更可持续。
毕竟,活下来,才能走得更远。
夜雨聆风