乐于分享
好东西不私藏

当“AI代理”成为新型遏制工具——五眼联盟《谨慎采用智能体人工智能服务》背后的技术脱钩与供应链锁定

当“AI代理”成为新型遏制工具——五眼联盟《谨慎采用智能体人工智能服务》背后的技术脱钩与供应链锁定

一、基本情况

2026年5月1日,由美国网络安全与基础设施安全局(CISA)、美国国家安全局(NSA)联合澳大利亚、加拿大、新西兰及英国的国家网络安全中心(即“五眼联盟”网络安全机构),共同发布了《谨慎采用智能体人工智能服务》(Careful Adoption of Agentic Artificial Intelligence Services)这一极具分量的联合指导文件。

该文件并非单纯的技术白皮书,而是一份措辞严厉的风险警告书。文件核心直指“智能体AI”,即那些能基于大语言模型(LLM)自主感知环境、制定计划并执行复杂任务,且仅需有限人工干预的AI系统。文件明确指出,此类AI系统在带来显著自动化效益的同时,也引入了攻击面扩大、权限无限蔓延、行为逻辑偏差及审计记录模糊等前所未有的网络安全风险。

值得注意的是,此次指导文件的发布时机极为微妙。仅在文件发布前一周(2026年4月下旬),OpenAI与Anthropic分别向“五眼联盟”成员国政府定向展示了其最新的网络安全专用AI模型(GPT-5.4-Cyber与Mythos),并启动了面向盟国的受限访问审查机制。这种“先私有化分发尖端防御武器、再公开发布通用防御指南”的组合拳,标志着“五眼联盟”正试图重塑全球AI治理规则。

二、可能存在风险分析

(一)地缘战略与技术标准风险:从“芯片封锁”到“智能体隔离”

此次联合指南的发布,表面是安全警示,实则是美国主导的“科技民主联盟”在AI领域进行的一次深层战略划线,其对我国带来的地缘技术风险主要表现在以下方面:

一是构建排他性的“AI信任圈”,加速实施AI领域的“技术铁幕”。 该指南虽向全球公开,但其配套的核心防御工具与高级威胁情报共享却严格限定在“五眼联盟”内部闭环流动。通过OpenAI的“可信网络访问计划”等审查机制,美国正将最先进的AI安全能力作为特权仅赋予其核心盟友,试图建立起一个排斥我国的AI安全防护共同体。这种基于价值观和情报同盟的排他性技术分发,将加剧全球AI治理体系的分裂,使我国在未来的国际AI标准制定中面临被西方联合孤立的风险。

二是通过定义“不安全设计”,隐性打压我国AI产业的技术合法性。 指南强调要将智能体AI的风险纳入现有网络安全模型进行管理,并提出了“避免授予广泛权限”、“仅限于低风险任务”等具体操作准则。这些准则将被西方作为衡量AI系统安全性的“尺子”。由于我国AI智能体(如OpenClaw等开源生态)的发展路径强调高效部署与快速多模型切换,且主要依托国内庞大的内需市场快速迭代,西方很可能利用其制定的“安全标准”和“审计要求”,将我国不符合其评估体系的AI产品定性为“高风险”或“不可信”,从而以安全为由设置隐蔽的非关税贸易壁垒。

三是强化“数字供应链”管控,企图锁定我国AI发展的底层硬件与软件生态。 指南反复强调对供应链风险和第三方依赖性的管控。结合当前美国对华高端芯片出口管制的背景,该指南为后续进一步限制含有特定AI软件协议或依赖于西方云服务架构的我国智能体应用,提供了充足的理论依据。这本质上是将地缘政治对抗延伸至AI供应链的每一个环节,妄图通过软硬结合的生态封锁,从底层遏制我国AI技术的全面追赶。

(二)网络安全与关键基础设施风险:从“被动防御”到“自动化持续攻击”

该指南不仅指导防御,更暴露了对手已具备高度自动化网络攻击能力。对我国而言,核心威胁在于传统网络安全边界在面对智能体AI时可能彻底失效。

一是“提示词注入”与“供应链投毒”构成对政企系统的精准打击新范式。 指南承认智能体AI继承了LLM的固有弱点,如提示词注入,并通过自主工具使用使其危害呈指数级放大。在我国,2026年第一季度爆发的“ClawHavok供应链投毒事件”已敲响警钟:恶意攻击者通过向开源AI智能体生态植入带有窃密功能的“技能包”,导致约30万用户被感染。随着我国政务、金融系统加速部署智能体,这种针对AI供应链的“上游污染”可瞬间将木马植入我国关键信息基础设施内部,传统基于特征库的防火墙对这种隐藏在正常AI语义交互下的恶意行为几乎无效。

二是“自动化漏洞挖掘与利用”将彻底打破攻防平衡。 OpenAI与Anthropic向五眼联盟提供的GPT-5.4-Cyber、Mythos等模型,已被优先用于测试和挖掘政府内部老旧系统的未修补漏洞。这意味着对手将拥有7×24小时不停歇、效率远超人类黑客数百倍的“虚拟攻击军团”。我国的金融、能源、交通等关键行业普遍存在大量短期内无法替换的遗留系统,面对这种AI驱动的超高速渗透测试与漏洞利用,现有人工值守的应急响应机制将不堪一击。

三是“行为失准”与“数据驻留”风险威胁国家安全。 指南指出了智能体因目标理解偏差或恶意操控可能产生的“行为偏差”。若我国部分单位违规使用未经过严格合规审查的境外智能体服务,其在执行任务时就可能将敏感的国内经济、社会甚至军事数据通过API调用悄无声息地传输至境外服务器。由于AI是在“合法执行任务”的掩护下工作,这类数据窃取行为具有极高的隐蔽性,传统的DLP(数据丢失防护)系统难以察觉此类非结构化数据流的外泄。

(三)产业经济与治理主权风险:从“数字主权”到“认知主权”的侵蚀

“五眼联盟”此举意在干预全球数字化进程的节奏,企图在智能体大规模渗透实体产业之前,先立下对自己有利的“规矩”,从而侵蚀我国的产业升级路径和治理主权。

一是阻碍我国“AI + 工业”自主道路进程。 BCG报告显示,全球超三分之二的企业正面临地缘政治不确定性与技术管控带来的合规成本激增。如果西方的指南成为国际事实标准,我国外向型制造企业在部署AI智能体提升生产线效率时,可能因底层AI框架不符合西方“安全认证”而面临出口合规审查,甚至被排除在全球供应链之外。这实质上是强迫我国产业在“拥抱AI效率红利”与“保持全球市场准入”之间做出二选一,企图从应用侧迟滞我国的产业智能化升级。

二是加剧全球AI人才与投资的“阵营化”流动。 这种由国家情报机构背书的“安全警告”,会向全球资本市场和高端人才传递“非盟友AI生态不安全”的潜意识信号。全球化背景下,跨国公司在选择AI技术栈时可能不得不向“五眼联盟”的标准看齐,从而间接导致资金和技术流入西方生态链,对我国大开大合的AI应用市场造成挤出效应。

三是动摇我国发展中国家技术伙伴对数字主权的信心。 “五眼联盟”通过情报机构背书AI安全,很容易形成“强制合规”的市场垄断。我国一直倡导“数字主权”与“数据本地化”,但如果我国自身的智能体安全防护体系未能迅速对标国际先进水平并向外赋能,部分参与“数字丝绸之路”的国家可能在西方施压下,动摇其采用我国AI基建方案的决心,转而采购被“五眼联盟”认证的产品,这对我国的地缘经济布局构成潜在损害。

三、对策建议

一是抓紧构建国家级AI智能体安全护栏体系,推行“可信智能体”强制安全基线。 建议由网信办、工信部牵头,吸取OpenClaw生态大规模投毒事件的教训,强制要求所有进入政务、关键行业的智能体通过国家级认证(参考信通院检测标准)。加快研发针对提示词注入、供应链投毒的自主免疫系统,同时大力推广具备自主知识产权的端-网-云防护方案,确保物理网络与智能体应用层之间形成统一的安全纵深。

二是实施“AI算力与供应链断点清查”,建立关键系统离线冗余能力。 摸排金融、能源等关键基础设施在用AI系统中的境外组件依存度,制定任务时间表,限期实现核心AI推理链的全流程国产化替代。同步建立国家级遗留系统的离线物理备份机制,以防敌方利用AI对我老旧系统发动瞬时瘫痪打击。

三是强势争夺国际AI安全标准话语权,用“发展权”破解“安全围堵”。 外交与产业层面应主动出击,针对《谨慎采用》文件中的排他性条款,联合上合组织、金砖国家、东盟等伙伴,提出以“普惠包容、共商共建”为核心的《全球智能体AI安全发展倡议》。加快推动国内开源大模型及安全解决方案(如龙虾安全伴侣等)的英文版适配与定向出海,为全球南方提供性能优异且不被政治捆绑的第二选择,打破西方定义的控制闭环。