AI狂奔的时代,政府终于下场了。
当地时间5月5日,美国商务部下属人工智能标准与创新中心(CAISI)宣布与Google DeepMind、微软和xAI达成新合作协议,三家公司将在新一代AI模型正式公开发布前,提前向美国政府开放模型权限,接受国家安全风险审查。
这标志着美国对前沿AI技术的监管力度从"事后追责"转向"事前介入"。
01 为什么是现在
过去一年,GPT-4o、Claude 3.5、Gemini系列模型的能力提升速度让监管机构有些跟不上节奏。尤其是多模态能力、Agent自主性的突破,让"AI能否被用于制造生物武器"这类问题从科幻走进了现实。
据CNN报道,美国政府官员表示,审查的核心不是阻止技术进步,而是确保
"危险能力不会被轻易释放"
。具体来说,会关注模型是否能被用于制造化学/生物武器、发起大规模网络攻击等高风险场景。02 巨头们为什么愿意配合
一个值得注意的细节是:这三家公司都是"自愿"加入的,而非被迫。这意味着配合政府审查有其商业逻辑。
一方面,AI安全已成为影响公司估值和融资能力的因素。Anthropic因为在安全方面的投入拿到了亚马逊数十亿美元投资;如果竞争者通过安全审查获得政府采购和企业客户的信任加分,Google和微软显然不愿落后。
另一方面,监管的确定性对商业规划至关重要。
提前知道边界在哪里,比事后被罚更符合商业逻辑。

示意图(配图与文章内容无关)
03 审查流程会长什么样
目前公开信息有限,但据BBC报道,新协议参考了部分网络安全审查的框架,流程可能包括:模型能力评估、红队测试、安全报告提交等环节。审查周期目前尚未公布。
有分析师指出,如果审查周期太长,可能影响产品发布节奏。但也有观点认为,
如果能换来政府背书和客户信任,这个时间成本是值得的。
对国内AI从业者而言,这个信号值得持续关注:美国正在建立一套"AI模型上市前政府审查"的范式,如果效果良好,其他国家可能跟进。对应的大厂出海、模型出口合规路径,都会随之调整。
🔥 今日互动
你觉得AI模型发布前应该接受政府安全审查吗?
A. 应该,安全风险太大
B. 不该,应该交给行业自律
C. 不好说,看具体怎么执行
---
本文由AI辅助创作,内容来源:CNN(2026-05-05)、BBC News(2026-05-05)、新浪科技(2026-05-06)。
夜雨聆风