乐于分享
好东西不私藏

258个漏洞下的"龙虾陷阱":当OpenClaw成为黑客的"上帝模式"

258个漏洞下的"龙虾陷阱":当OpenClaw成为黑客的"上帝模式"

   

258个漏洞下的”龙虾陷阱”:当OpenClaw成为黑客的”上帝模式”

258个漏洞下的”龙虾陷阱”:当OpenClaw成为黑客的”上帝模式”

> 2026年初,一个开源AI智能体项目以惊人的速度席卷全球——OpenClaw(被网友戏称为”龙虾”),GitHub星标数在短短数月内突破26万,超越React和Linux内核,创下开源史上最快增长纪录。但与此同时,它也被曝出258个安全漏洞,其中CVE-2026-25253的CVSS评分高达8.8。

OpenClaw的崛起,既是AI技术平民化的胜利,也是安全风险的集中爆发。当企业在”AI赋能”的狂欢中拥抱这个工具时,很少意识到自己可能正在打开潘多拉魔盒。

一、事件背景:从”现象级项目”到”漏洞集中营”

惊人的增长与惊人的风险

OpenClaw最初以Clawdbot、Moltbot等名称出现,后被开发者定义为”可真正执行任务的AI”。它的成功在于将复杂的AI能力封装成简单的API接口,让开发者可以快速构建智能应用。

但技术普惠的背后,是安全审计的严重滞后。截至2026年3月,全球公网暴露的OpenClaw实例已超17万个,其中国内暴露实例超过7万个。这些实例中,很多运行着存在高危漏洞的版本。

CVE-2026-25253:一键破防的RCE漏洞

这个远程代码执行漏洞的可怕之处在于其利用的简便性。攻击者只需构造一个恶意链接,用户点击后就能实现跨站WebSocket劫持,进而窃取API令牌、执行任意代码。

漏洞利用过程简单到令人震惊

1. 攻击者生成包含恶意gatewayUrl参数的链接

2. 用户点击链接,触发跨站WebSocket劫持

3. 攻击者窃取用户的API令牌

4. 攻击者获得对OpenClaw实例的完全控制权

更糟糕的是,很多企业部署OpenClaw时使用了默认配置,没有启用任何认证机制,让攻击变得更加容易。

二、风险分析:OpenClaw生态的”三重风险”

1. 技术风险:漏洞的连锁反应

CVE-2026-25253只是冰山一角。安全研究人员在OpenClaw生态中发现了258个漏洞,这些漏洞相互关联,可能形成”漏洞链”攻击:

**认证绕过漏洞**:允许攻击者绕过身份验证直接访问系统

**权限提升漏洞**:让普通用户获得管理员权限

**数据泄露漏洞**:可能导致敏感信息被窃取

**供应链投毒漏洞**:通过恶意技能包植入后门

当这些漏洞被组合利用时,攻击者可以构建复杂的攻击链,从最初的入口点逐步深入,最终完全控制整个系统。

2. 供应链风险:ClawHub的”毒药快递”

OpenClaw的官方技能市场ClawHub本是生态繁荣的体现,却成了安全风险的主要来源。截至2026年3月,ClawHub已发现1,184个恶意技能包。

这些恶意技能包主要有三种类型

**数据窃取型**:收集用户敏感信息并发送给攻击者

**后门植入型**:在系统中建立持久化访问通道

**资源滥用型**:利用系统资源进行挖矿或DDoS攻击

安天CERT将这批投毒样本命名为”Trojan/OpenClaw.PolySkill”,并指出”人工智能安全最急迫的风险并不在算法本身,而在生态供应链”。

3. 管理风险:部署与运维的”黑洞”

很多企业在部署OpenClaw时,存在严重的管理漏洞:

**配置错误**:使用默认配置,不启用任何安全设置

**权限过宽**:为OpenClaw分配了过高的系统权限

**缺乏监控**:没有对AI系统的异常行为进行监控

**更新滞后**:不及时打补丁,运行存在漏洞的版本

这些管理问题放大了技术风险,让原本可控的安全问题演变成系统性的安全危机。

三、防御建议:如何”安全养虾”

1. 部署阶段:建立安全基线

**最小权限原则**:只为OpenClaw分配完成任务所需的最小权限

**网络隔离**:将AI系统部署在隔离的网络环境中

**强制认证**:启用多因素认证,避免使用默认配置

**版本控制**:使用经过安全审计的稳定版本,避免使用开发版

2. 运行阶段:持续监控与防护

**行为监控**:建立AI系统的行为基线,监控异常操作

**日志审计**:详细记录所有API调用和系统操作

**漏洞扫描**:定期对系统进行漏洞扫描和安全评估

**应急响应**:制定详细的应急响应预案,确保快速处置安全事件

3. 供应链管理:严格把控技能包

**来源审查**:只从可信来源下载技能包

**代码审计**:对第三方技能包进行安全审计

**沙箱运行**:在不信任的技能包运行环境中使用沙箱

**定期清理**:定期检查和清理不需要的技能包

4. 组织层面:建立AI安全文化

**安全培训**:对开发人员和运维人员进行AI安全专项培训

**责任体系**:明确AI系统的安全责任人

**合规检查**:确保AI系统的部署符合相关法规和标准

**信息共享**:参与行业安全信息共享,及时了解新威胁

四、行业启示:AI生态安全的”新范式”

OpenClaw事件给整个AI行业敲响了警钟。它告诉我们:

1. 速度与安全需要平衡

开源项目的快速迭代带来了创新活力,但也可能牺牲安全性。开发者需要在迭代速度和代码质量之间找到平衡点。

2. 生态繁荣需要安全护航

一个健康的AI生态不仅需要丰富的功能,更需要健全的安全机制。平台方应该承担起生态安全的责任。

3. 用户教育是关键

很多安全问题的根源在于用户缺乏安全意识。加强AI安全教育和培训,是提升整体安全水平的关键。

4. 监管需要跟上技术发展

随着AI技术的普及,监管也需要与时俱进。制定合理的法规和标准,引导AI生态健康发展。

OpenClaw的故事还在继续。它既是AI技术平民化的成功案例,也是AI安全教育的生动教材。对于企业而言,拥抱AI技术的同时,必须同步构建AI安全能力。否则,技术红利可能变成安全债务,而今天的选择,将决定明天的命运。

作者: AI今天到哪一步了

字数: 约1350字

生成时间: 2026年4月21日 08:20

   
   

       

© 2026 AI今天到哪一步了 · 深度解读AI技术趋势