258个漏洞下的"龙虾陷阱":当OpenClaw成为黑客的"上帝模式"
258个漏洞下的”龙虾陷阱”:当OpenClaw成为黑客的”上帝模式”
258个漏洞下的”龙虾陷阱”:当OpenClaw成为黑客的”上帝模式”
> 2026年初,一个开源AI智能体项目以惊人的速度席卷全球——OpenClaw(被网友戏称为”龙虾”),GitHub星标数在短短数月内突破26万,超越React和Linux内核,创下开源史上最快增长纪录。但与此同时,它也被曝出258个安全漏洞,其中CVE-2026-25253的CVSS评分高达8.8。
OpenClaw的崛起,既是AI技术平民化的胜利,也是安全风险的集中爆发。当企业在”AI赋能”的狂欢中拥抱这个工具时,很少意识到自己可能正在打开潘多拉魔盒。
一、事件背景:从”现象级项目”到”漏洞集中营”
惊人的增长与惊人的风险
OpenClaw最初以Clawdbot、Moltbot等名称出现,后被开发者定义为”可真正执行任务的AI”。它的成功在于将复杂的AI能力封装成简单的API接口,让开发者可以快速构建智能应用。
但技术普惠的背后,是安全审计的严重滞后。截至2026年3月,全球公网暴露的OpenClaw实例已超17万个,其中国内暴露实例超过7万个。这些实例中,很多运行着存在高危漏洞的版本。
CVE-2026-25253:一键破防的RCE漏洞
这个远程代码执行漏洞的可怕之处在于其利用的简便性。攻击者只需构造一个恶意链接,用户点击后就能实现跨站WebSocket劫持,进而窃取API令牌、执行任意代码。
漏洞利用过程简单到令人震惊:
1. 攻击者生成包含恶意gatewayUrl参数的链接
2. 用户点击链接,触发跨站WebSocket劫持
3. 攻击者窃取用户的API令牌
4. 攻击者获得对OpenClaw实例的完全控制权
更糟糕的是,很多企业部署OpenClaw时使用了默认配置,没有启用任何认证机制,让攻击变得更加容易。
二、风险分析:OpenClaw生态的”三重风险”
1. 技术风险:漏洞的连锁反应
CVE-2026-25253只是冰山一角。安全研究人员在OpenClaw生态中发现了258个漏洞,这些漏洞相互关联,可能形成”漏洞链”攻击:
• **认证绕过漏洞**:允许攻击者绕过身份验证直接访问系统
• **权限提升漏洞**:让普通用户获得管理员权限
• **数据泄露漏洞**:可能导致敏感信息被窃取
• **供应链投毒漏洞**:通过恶意技能包植入后门
当这些漏洞被组合利用时,攻击者可以构建复杂的攻击链,从最初的入口点逐步深入,最终完全控制整个系统。
2. 供应链风险:ClawHub的”毒药快递”
OpenClaw的官方技能市场ClawHub本是生态繁荣的体现,却成了安全风险的主要来源。截至2026年3月,ClawHub已发现1,184个恶意技能包。
这些恶意技能包主要有三种类型:
• **数据窃取型**:收集用户敏感信息并发送给攻击者
• **后门植入型**:在系统中建立持久化访问通道
• **资源滥用型**:利用系统资源进行挖矿或DDoS攻击
安天CERT将这批投毒样本命名为”Trojan/OpenClaw.PolySkill”,并指出”人工智能安全最急迫的风险并不在算法本身,而在生态供应链”。
3. 管理风险:部署与运维的”黑洞”
很多企业在部署OpenClaw时,存在严重的管理漏洞:
• **配置错误**:使用默认配置,不启用任何安全设置
• **权限过宽**:为OpenClaw分配了过高的系统权限
• **缺乏监控**:没有对AI系统的异常行为进行监控
• **更新滞后**:不及时打补丁,运行存在漏洞的版本
这些管理问题放大了技术风险,让原本可控的安全问题演变成系统性的安全危机。
三、防御建议:如何”安全养虾”
1. 部署阶段:建立安全基线
• **最小权限原则**:只为OpenClaw分配完成任务所需的最小权限
• **网络隔离**:将AI系统部署在隔离的网络环境中
• **强制认证**:启用多因素认证,避免使用默认配置
• **版本控制**:使用经过安全审计的稳定版本,避免使用开发版
2. 运行阶段:持续监控与防护
• **行为监控**:建立AI系统的行为基线,监控异常操作
• **日志审计**:详细记录所有API调用和系统操作
• **漏洞扫描**:定期对系统进行漏洞扫描和安全评估
• **应急响应**:制定详细的应急响应预案,确保快速处置安全事件
3. 供应链管理:严格把控技能包
• **来源审查**:只从可信来源下载技能包
• **代码审计**:对第三方技能包进行安全审计
• **沙箱运行**:在不信任的技能包运行环境中使用沙箱
• **定期清理**:定期检查和清理不需要的技能包
4. 组织层面:建立AI安全文化
• **安全培训**:对开发人员和运维人员进行AI安全专项培训
• **责任体系**:明确AI系统的安全责任人
• **合规检查**:确保AI系统的部署符合相关法规和标准
• **信息共享**:参与行业安全信息共享,及时了解新威胁
四、行业启示:AI生态安全的”新范式”
OpenClaw事件给整个AI行业敲响了警钟。它告诉我们:
1. 速度与安全需要平衡
开源项目的快速迭代带来了创新活力,但也可能牺牲安全性。开发者需要在迭代速度和代码质量之间找到平衡点。
2. 生态繁荣需要安全护航
一个健康的AI生态不仅需要丰富的功能,更需要健全的安全机制。平台方应该承担起生态安全的责任。
3. 用户教育是关键
很多安全问题的根源在于用户缺乏安全意识。加强AI安全教育和培训,是提升整体安全水平的关键。
4. 监管需要跟上技术发展
随着AI技术的普及,监管也需要与时俱进。制定合理的法规和标准,引导AI生态健康发展。
OpenClaw的故事还在继续。它既是AI技术平民化的成功案例,也是AI安全教育的生动教材。对于企业而言,拥抱AI技术的同时,必须同步构建AI安全能力。否则,技术红利可能变成安全债务,而今天的选择,将决定明天的命运。
—
作者: AI今天到哪一步了
字数: 约1350字
生成时间: 2026年4月21日 08:20
夜雨聆风