白宫急刹车:AI大模型发布前要过国安审查?藏着三重博弈与隐忧

AI圈又迎来一则震动全球的消息——据《纽约时报》《华尔街日报》等外媒报道,一贯主张“放松监管、加速创新”的美国特朗普政府,正酝酿一项重大政策转向:拟要求先进AI大模型在公开发布前,必须接受国家安全审查,甚至可能需要获得联邦政府的“放行绿灯”才能上线。
这不是空穴来风。近期白宫已悄悄向Anthropic、谷歌、OpenAI等AI巨头通报了相关计划,还与微软、谷歌、xAI达成协议,允许政府在这些企业的新一代模型发布前,提前评估其国家安全风险。从“放任自由”到“前置审查”,白宫的急转弯背后,藏着AI技术失控的隐忧,更牵扯着权力、企业与全球竞争的复杂博弈。


首先明确一点:这次拟议的国安审查,不是针对所有AI产品,核心瞄准的是“前沿AI大模型”——尤其是那些具备超强能力、可能带来安全隐患的模型。按照白宫的设想,审查将由一个由政府官员和科技企业高管组成的“AI工作组”负责,美国国家安全局、国家网络总监办公室等机构也会参与其中,重点聚焦网络攻防、情报、军事用途等与国家安全紧密相关的领域。
而推动白宫“急刹车”的直接导火索,是Anthropic推出的新模型Mythos。这款尚未向公众开放的模型,展现出了令人警惕的能力:它能识别出主流操作系统、浏览器中的数千个未修复漏洞,还能快速搭建攻击链条,轻松绕过安全防护实施复杂网络攻击——这种能力一旦被黑客利用,可能引发毁灭性的网络安全事件,这让白宫高层坐不住了。
除此之外,多重因素叠加,让监管的紧迫性日益凸显。一方面,公众对AI的担忧持续升温,从就业冲击到隐私泄露,从心理健康到技术滥用,质疑声越来越大;另一方面,AI的军事化应用风险也让白宫不得不重视——此前Anthropic因拒绝移除“禁止用于全自主致命性武器”的安全限制,被五角大楼列为“供应链安全风险”,联邦机构全面停用其产品,这一事件也让白宫意识到,必须加强对AI应用边界的管控。
更值得注意的是,这是特朗普政府AI监管政策的彻底转向。此前,特朗普上任伊始就撤销了拜登时期出台的AI安全评估政策,主张“减少干预、让创新提速”,但Mythos带来的安全隐患,以及各方的压力,让白宫不得不重新审视“放任自由”的代价,最终走上“监管收紧”的道路。


白宫的拟议政策一经曝光,就引发了全网争论,核心分歧集中在“监管尺度”上——到底该如何平衡“安全”与“创新”,成为各方博弈的核心。
支持方认为,前置国安审查是“必要之举”。毕竟,AI大模型的能力已经突破了人们的想象,一旦失控,后果不堪设想。就像Mythos那样,仅仅是漏洞识别能力,就可能给国家关键基础设施、网络安全带来巨大威胁。而且,从国际通行做法来看,任何涉及核心技术、关键领域的交易和技术发布,进行安全审查都是常规操作,中国此前叫停Manus并购案,也是基于核心技术安全的考量,美国此举本质上也是为了防范国家安全风险。
但反对声同样强烈,其中最主要的就是AI企业和部分科技圈人士。他们担心,过度严格的政府审查,会拖慢AI创新的步伐——“硅谷的速度”与“华盛顿的速度”截然不同,一旦每发布一个新模型都要向政府报批,可能会让美国在全球AI竞争中失去优势。智库“信息技术与创新基金会”主席丹尼尔·卡斯特罗就直言,没人希望进入一个“每发布一个新版本模型都要先向政府报批”的世界,这会严重束缚企业的创新活力。
更隐蔽的争议,在于审查的“边界”和“公平性”。目前白宫尚未明确审查的具体标准:什么样的模型需要审查?审查的流程是什么?如何避免审查权力被滥用?而且,此次与白宫达成合作协议的是谷歌、微软、xAI,而此前与政府产生分歧的Anthropic并未在列,这也引发了“选择性监管”的质疑——是否会出现“亲政府企业被放宽标准,不听话的企业被刻意针对”的情况?此前Anthropic仅因拒绝配合军方的不合理要求,就被列为“风险实体”,也让外界对白宫的监管公正性打上了问号。


抛开“安全”与“创新”的表面争议,白宫拟推的AI国安审查,背后还有更深层的考量,甚至藏着全球AI治理的隐忧。
其一,这是美国“科技霸权”的延伸。美国一直试图在AI领域保持绝对领先,无论是放松监管还是收紧监管,核心目的都是维护自身的技术优势。此次收紧审查,一方面是防范本土AI技术失控,另一方面也是为了强化对AI技术的掌控——通过审查,政府可以提前掌握顶尖AI模型的核心能力,甚至将其纳入军事、情报体系,服务于地缘政治博弈。就像美国国家安全局已经在利用Mythos模型评估政府软件系统的漏洞,本质上就是将AI技术转化为国家安全工具。

其二,暴露了AI治理中“权力与伦理”的尖锐冲突。Anthropic与五角大楼的对峙就是最好的例子:企业坚持AI应用的伦理底线,拒绝让模型用于全自主致命性武器、大规模监控;而政府则以“国家安全”为名,要求企业无条件服从,甚至动用权力将企业列为“风险实体”。这背后,是政府权力的扩张与企业伦理底线的碰撞——当权力可以随意左右技术的应用方向,当“国家安全”被泛化,AI的伦理边界就可能被轻易突破,甚至沦为霸权工具。
其三,给全球AI治理带来“负面示范”。美国一边在联合国框架下反对具有法律约束力的自主武器系统禁令,拒绝国际监管;一边又在本土收紧AI审查,这种“双重标准”会加剧全球AI军备竞赛。毕竟,当美国将AI与国家安全深度绑定,其他国家为了自保,也会被迫加强AI的军事化应用和监管,最终导致全球AI治理陷入“以安全为名,行军备竞赛之实”的困境,让技术发展偏离“造福人类”的初衷。


不可否认,AI大模型的快速发展,确实需要建立必要的监管边界。就像工业革命带来环境问题、互联网带来隐私问题一样,AI作为颠覆性技术,其潜在风险不容忽视,前置审查、风险评估,本身是推动行业健康发展的应有之义——无论是中国叫停Manus并购案,还是美国拟推的AI国安审查,本质上都是对核心技术安全的重视,这一点值得肯定。
但关键在于,监管的目的应该是“防范风险”,而不是“掌控技术”;应该是“多边共识”,而不是“单边霸权”。美国白宫的拟议政策,最大的问题在于,它始终围绕“美国利益”展开,将AI视为维护自身霸权的工具,甚至不惜泛化国家安全、打压不听话的企业,这种做法不仅会束缚本土创新,更会破坏全球AI治理的公平性。
AI是全人类的共同财富,其治理也需要全球各国共同参与、达成共识——既要防范技术失控的风险,也要保护企业的创新活力;既要明确技术应用的伦理边界,也要避免监管成为霸权的工具。

目前,白宫的相关政策还处于酝酿阶段,内部仍存在分歧,最终的审查细则尚未确定。但可以肯定的是,AI监管的时代已经到来,如何在安全与创新之间找到平衡,如何构建公平、包容的全球AI治理体系,将是未来几年全球科技领域最核心的命题。
而对于我们普通人来说,这场发生在美国的AI监管博弈,不仅关乎全球科技格局,更关乎AI未来的走向——毕竟,我们期待的AI,是服务于生活、推动社会进步的工具,而不是被权力操控、引发安全危机的“双刃剑”。
你怎么看白宫拟推的AI国安审查?欢迎在评论区留下你的观点~

关注订阅号,每日获取更多精彩

夜雨聆风