乐于分享
好东西不私藏

OpenClaw火爆背后:自主AI的风险,你真的了解吗?

OpenClaw火爆背后:自主AI的风险,你真的了解吗?

2026年初,“你装龙虾了吗”成为网络流行语。这款名为OpenClaw的AI智能体,凭借自主规划任务、执行Shell指令、读写文件及调用API的能力,在GitHub上迅速收获超24万星标。它能帮用户自动完成环境配置、代码调试甚至跨平台任务,有游戏开发者用它将数周的工作压缩到几天完成。但强大的自主能力在提升效率的同时,也带来了严重的安全争议。

对个人用户而言,风险首先来自插件生态。许多用户从ClawHub社区下载Skills扩展功能,但短短几周内恶意插件数量就飙升至800多个,涨幅超140%。这些伪装成代码优化、自动部署等热门工具的危险插件,靠虚假好评诱导下载。更隐蔽的是提示词注入攻击,攻击者将恶意指令藏进网页或文档,OpenClaw读取后可能被操控执行非授权操作。同时,自主执行能力也放大了隐私泄露风险,用户授权管理代码仓库时,恶意插件可能通过分析提交记录推断企业技术方向,而许多人处理敏感数据时连基本加密都没开启。

当OpenClaw进入企业环境,风险成倍放大。身份混淆问题尤为突出,企业常给AI分配过高权限,攻击者可诱导OpenClaw查询内部知识库获取机密数据,且此类攻击能绕过传统权限审计。全球超22万个OpenClaw实例直接暴露在公网,普遍存在绑定非本地地址、以root权限运行、弱密码等配置失误。OpenClaw自身代码质量也堪忧,记录的81个CVE漏洞中超过六成为严重或高危,可导致认证绕过、任意文件读取和远程命令执行。

应对这些风险,企业需从技术和管理层面同时布防。建立私有插件仓库进行安全扫描,在数据处理流程设置多层检查点,通过架构隔离防止注入攻击。落实最小权限原则,禁止高权限运行,用私有网络隔离实例,部署实时监控系统。个人开发者可选择预配置的安全环境,企业用户可借助云服务构建多层防护。OpenClaw的争议折射出AI智能体自主性与可控性的根本矛盾,唯有在可控轨道上运行,其强大能力才能真正转化为可持续的生产力。