乐于分享
好东西不私藏

白宫要给AI搞「上市前审查」,你的API账单可能要涨

白宫要给AI搞「上市前审查」,你的API账单可能要涨

导语

昨天刷NYT的时候,我差点把咖啡喷到屏幕上——白宫正在考虑给AI模型搞「上市前审查」

你没看错,就是那种药监局批新药之前要过一道的感觉。

现在AI模型想公开发布?先让政府过一遍。

一句话版本:发生了啥

根据NYT、Reuters、Bloomberg三家同时放出的消息,特朗普政府正在讨论签一项行政命令

– 成立一个AI工作组,由科技公司高管 + 政府官员组成

– 建立AI模型的正式政府审查流程——模型发布前,政府要先看看

– 审查可能由国家安全局(NSA)、白宫国家网络安全主任办公室、国家情报总监联合监督

上周,白宫官员已经把初步方案跟Anthropic、Google、OpenAI三家的高管通了气。

转折点:Anthropic的Mythos模型

这件事不是拍脑袋想出来的。直接导火索是Anthropic今年4月发布的Claude Mythos Preview

这个模型有多猛?它能全自动发现并利用软件安全漏洞

Anthropic自己都怕了——他们发现Mythos能自动扫描操作系统内核,找到17年没被发现的老漏洞,甚至在以安全著称的OpenBSD中发现了一个蛰伏27年的漏洞,还能直接写出可执行的exploit。Anthropic声称这可能引发一场”网络安全清算”。

所以他们拒绝公开发布,只给了大约50家机构使用,还搞了个Project Glasswing防御联盟,让苹果、亚马逊、微软这些大厂先用它修补自家漏洞。

白宫一看:好家伙,这玩意儿要是流出去……

据新浪财经报道,副总统万斯财政部长贝森特都参加了相关会议。贝森特甚至专门警告金融行业高管:这类模型的风险不能忽视。

NSA已经偷偷在用Mythos扫描美国政府软件的漏洞了。政府内部的态度从”别管AI”变成了”得管管了”。

中国开发者:这剧情我熟啊

看到”模型发布前审查”这几个字,国内开发者估计已经笑了——这不就是算法备案吗?

中国2022年就开始搞了。《互联网信息服务深度合成管理规定》2023年1月施行,要求所有生成式AI服务提供者10个工作日内完成算法备案。仅个性化推送类算法就有272个完成备案,总备案量达数千条。

那美国的方案跟中国有啥区别?我整理了一下:

审查对象不同。 中国管的是”服务”——你用AI做产品给用户用,得备案。美国目前讨论的是管”模型”本身——模型还没发布就得审查。一个是管菜端上桌,一个是管菜下锅前。

审查主体不同。 中国是网信办牵头,偏内容安全。美国拟由NSA + 情报系统主导,偏国家安全和网络安全。一个怕你说错话,一个怕你炸东西。

力度不同。 中国的备案更像是”登记造册”——提交材料,通过就能上线。美国的方案还在讨论中,但从NSA参与的架势看,可能更像”审批许可”——不通过就不能发。

但有个共同点:对小开发者都不太友好。

对开发者的实际影响

我分三个场景来说。

场景一:API价格可能涨

如果每个模型发布前都要经过政府审查,审查谁来买单?

企业。而企业最终会把这个成本转嫁到API价格上。

现在调用GPT-4o已经不便宜了,要是再加上一笔”合规审查费”……想想都心疼。

更扎心的是,Anthropic和OpenAI可能还会把审查作为护城河——毕竟大厂有律师团队和合规部门,小公司哪玩得起这套流程。

Hacker News上有人直接说了:”只有OpenAI、Google、Anthropic能负担得起政府审查。开源模型和个人创作者将被边缘化。”

场景二:开源模型可能被卡脖子

这可能是最让我焦虑的一点。

美国方案如果落地,开源模型的处境会非常尴尬。Meta的Llama、Google的Gemma这些”放出来就管不了”的模型,还能不能痛快地发?

HN上有人提出了一连串灵魂拷问:

– A/B测试的实验性模型也要审吗?

– 改个系统提示词算不算”新模型”?

– 政府有那么多人力审每个模型吗?

– 什么算”AI模型”——有权重就算?

如果定义模糊,HuggingFace上那些社区微调的模型可能全部中枪。

更魔幻的是,中国的大模型(DeepSeek、Qwen等)不受美国审查影响。有HN网友直接预言:”这将让中国吃掉美国的AI午餐,就像他们在新能源车和制造业做的那样。”

场景三:个人开发者——基本躺平

说实话,个人开发者大概率不会被直接影响。

中国的算法备案也是这个套路——大厂乖乖备案,个人用API写个小工具,谁管你?

但间接影响是真实的。如果开源模型发布变慢,API变贵,可选择范围变小——我这种靠蹭免费额度写Side Project的人,生存空间会越来越窄。

行业反应:三方博弈

这次最耐人寻味的是各家公司的态度

Anthropic: 表面配合,实际是最大赢家。Mythos事件让他们成为”负责任的AI公司”标杆,政府审查反而巩固了他们的地位。讽刺的是,今年3月Anthropic主动起诉了国防部——因为拒绝让Claude用于大规模监控和全自主武器。现在关系缓和了——NSA已经用上了Mythos。

OpenAI: 处境微妙。Altman一直在呼吁监管,但真来了又怕被卡住。OpenAI的商业模式依赖快速迭代,审查流程会拖慢他们的节奏。

Google: 最从容的一个。Google有庞大的政府关系团队,应对合规审查是家常便饭。而且他们也没 Mythos 那种”太危险了不敢发”的问题。

一个有趣的变化:特朗普政府的立场180度大转弯。 他上任第一天就撤销了拜登时期的AI安全评估要求,认为监管会削弱美国对中国的竞争力。现在,公众对AI影响就业和安全的焦虑越来越大,加上两党议员都开始关注,白宫的态度终于松动了。

前特朗普政府AI高级顾问迪恩·鲍尔说了一句大实话:”技术发展太快,正式管理程序很少,他们也不想过度监管——但平衡很难把握。”

💡 打工人的碎碎念

作为一个天天调API的开发者,我对这事儿的心情比较矛盾。

一方面,Mythos确实吓到我了。一个能自动发现17年老漏洞并写出exploit的模型,如果落入恶意之手……我写的那点代码在它面前跟纸糊的一样。

另一方面,政府审查的边界太模糊了。HN上有人担心审查标准会变成”这个模型对2020年大选结果怎么回答”——那就不是安全审查,是政治审查了。还有人半开玩笑说:”如果我必须选一个审查过的模型,我选中国审查的,至少便宜。”

这种荒诞感大概就是2026年开发者的日常。

我的预判

说实话,这事挡是挡不住的。 Anthropic自己都承认Mythos是”阶梯式变化”(step change),这类能力的模型只会越来越多。中美欧三方最终都会走向某种形式的模型审查,只是路径不同。

但力度会打折。 白宫官员已经出来降温了,说行政命令的事都是”猜测”。就算是真搞,也很可能从”自愿提交”开始,不会一步到位变成强制审批。

对开发者来说,最大的风险不是审查本身,而是审查带来的不确定感。 不知道明天还能不能愉快地调API,不知道开源社区还能不能正常发模型。这种悬而未决的状态,比确定的坏消息更折磨人。

我能做的,大概就是趁现在还没审查,多调几个模型,多囤几个API key。

毕竟,等审查来了,可能就不是我想用哪个就用哪个了 🤷


如果这篇文章让你对AI监管有了新的思考,点个「在看」呗 👇

你觉得白宫AI审查是好事还是坏事?评论区聊聊——我挺想知道你们怎么看 Mythos 这种”强到不敢发”的模型的。