📋 今日要闻概览
中国国家计算机网络应急技术处理协调中心(CNCERT)近日发布安全警告,指出开源自托管AI智能体平台OpenClaw(前身为Clawdbot和Moltbot)存在严重安全缺陷。该平台默认安全配置薄弱,可能导致提示注入攻击(Prompt Injection)及敏感数据外泄等高危风险。此次官方预警提示AI智能体生态的安全防护已刻不容缓。
📋 本期目录
- OpenClaw AI智能体漏洞可能导致提示注入攻击与数据泄漏
📰 详细内容
1. OpenClaw AI智能体漏洞可能导致提示注入攻击与数据泄露
来源: The Hacker News
发布时间: 2026-03-14
原文链接:https://thehackernews.com/2026/03/openclaw-ai-agent-flaws-could-enable.html
📄 内容摘要
中国国家计算机网络应急技术处理协调中心(CNCERT)通过官方微信公众号发布安全公告,正式警示开源自托管AI智能体平台OpenClaw(曾用名Clawdbot、Moltbot)存在多项安全隐患。CNCERT指出,该平台"天然薄弱的默认安全配置"是核心问题所在,使得攻击者可在无需复杂前提条件的情况下,对部署该平台的系统发动攻击。由于OpenClaw定位为自主AI智能体,具备自动执行任务、调用外部工具及访问本地资源的能力,一旦被攻击者利用,危害范围将远超传统软件漏洞。
在技术层面,此次披露的核心威胁包括两类:一是提示注入攻击(Prompt Injection),攻击者可通过构造恶意输入内容,操控AI智能体执行非预期指令,绕过安全策略甚至劫持整个任务流程;二是数据外泄风险(Data Exfiltration),由于默认配置缺乏严格的访问控制与数据隔离机制,智能体在处理任务时可能被诱导将本地敏感文件、环境变量或用户隐私数据传输至外部恶意端点。这两类攻击向量的叠加,使得OpenClaw在企业或个人自托管场景下面临极高的安全暴露面。
此次CNCERT的官方预警对整个AI智能体行业具有重要的警示意义。随着自主AI智能体在企业自动化、代码生成、数据处理等场景中的大规模落地,其安全配置的规范性问题正逐渐成为新的攻击入口。开源自托管模式虽赋予用户更高的灵活性与数据主权,但也意味着安全加固的责任完全由部署方承担。此次事件再次表明,AI系统的安全设计必须将"默认安全(Secure by Default)"作为基本原则,而非事后补丁。
💡 关键要点
- 官方权威预警:CNCERT作为国家级网络安全应急机构正式发布警告,表明该漏洞威胁等级已达到需要公众关注的严重程度
- 双重攻击向量:提示注入与数据外泄两类风险并存,前者威胁系统控制权,后者直接危及用户隐私与企业机密数据安全
- 默认配置是根源:平台"天然薄弱的默认安全配置"是问题核心,自托管用户若未主动加固,将直接暴露于攻击风险之中
- 影响范围广泛:OpenClaw曾以Clawdbot、Moltbot等名称运营,存量用户群体可能较大,历史版本同样面临风险
🎯 为什么重要
本篇报道被列为最高优先级,原因在于它直接触及当前AI安全领域最前沿的威胁类型——针对AI智能体的提示注入攻击。与传统软件漏洞不同,AI智能体的安全问题具有高度隐蔽性和不可预测性:攻击者无需利用代码层面的漏洞,仅凭精心设计的自然语言输入即可操控系统行为。CNCERT的官方背书进一步提升了此事件的可信度与紧迫性。对于所有正在评估或已部署开源AI智能体框架的企业和开发者而言,本次事件是一次极具参考价值的安全警示,提示各方必须将安全审计、访问控制和输入验证纳入AI系统部署的标准流程。
- 精选AI安全资讯 -
夜雨聆风