昨天晚上刷推的时候,看到一条消息差点从椅子上弹起来。
美国参议院新提出的一项法案,要给AGI(通用人工智能)下一个正式的法律定义,并且明确规定:AI公司要为自家产品造成的伤害承担法律责任。
你没看错。不是"建议",不是"指导意见",不是"行业自律框架",是liability,法律责任。
这事要是成了,整个AI行业的游戏规则都得改。
为什么这次不一样
过去两年,关于AI监管的讨论多到我耳朵都起茧了。欧盟搞了个AI Act,加州SB-1047吵了一整年,最后被纽森否了。联邦层面基本就是开听证会、发白皮书、呼吁自律,一套组合拳打在棉花上。
但这次的信号完全不同。几个变量同时出现了。
两党参议员在多场听证会上,把AI的风险比作"核扩散"。你在国会山能让两党在任何事情上达成一致,本身就是新闻。特朗普政府居然也在考虑联邦层面的AI监管,要用联邦法规直接取代各州那些七零八落的地方性法案。The Hill的报道里提到,一位儿童安全倡导者对此表示欢迎,说这种监管"早就该来了"。
还有一点我觉得最关键。Forbes那篇报道的标题写得很直白:AI安全监管辩论,大科技公司的转折点。为什么?因为大科技公司们开始花真金白银去影响政治,而且方向是对着干的。有的公司在资助推动监管的力量,有的在资助反对监管的力量。
当资本开始两边下注的时候,说明这事是真的要来了。
"产品责任"四个字,杀伤力有多大
聊AI监管,很多人第一反应是什么?数据隐私、内容审核、算法透明度,对吧?这些重要,但说实话对大公司的商业模式冲击有限。你让我披露训练数据来源,行,我雇一队律师处理就完了。
但"产品责任"是完全不同的东西。
一个做产品经理的朋友跟我说过一句话,我觉得特别精准:"产品责任意味着你不能再说'这是工具,用户自己负责'了。"
想想这意味着什么。现在AI公司出了问题,标准操作是什么?贴一个免责声明,说"AI生成内容可能不准确,请自行核实"。用户被AI幻觉误导去吃了有毒的蘑菇?不好意思,我们已经提醒过了。AI给出了错误的医疗建议?我们没说我们是医生啊。
如果产品责任法案通过,这套说辞就不好使了。你卖了一把椅子,椅子腿断了人摔伤了,你不能说"我贴了个标签说这椅子可能会断"就完事。AI也一样。
这对商业模式的影响是指数级的。粗略算一笔账:光是保险成本这一项,就够一批中小AI创业公司喝一壶。大公司有钱扛,小公司怎么办?买不起AI产品责任险,你这公司基本就别开了。
所以硅谷的反应是分裂的。大公司其实没那么怕监管。监管是护城河,是门槛。Google、微软、Meta,有法务团队、有合规预算、有和政府谈判的筹码。真正害怕的是那些拿了A轮B轮、正在拼命长大的创业公司。
AGI的定义,才是真正的战场
法案里另一个杀伤力极大的东西,是要给AGI一个正式的法律定义。
这玩意听起来像学术讨论,实际上是一颗定时炸弹。
定义决定了监管的边界。怎么定义AGI,直接决定了哪些公司、哪些产品会被纳入最严格的监管框架。
OpenAI内部把AGI定义为"在大多数经济上有价值的工作中超越人类的AI系统"。Google DeepMind去年搞了个五级分类法。学术界吵了几十年也没定论。现在让国会来定?
几种可能。如果定义设得很宽泛,比如"能够在多个领域执行复杂任务的AI系统",那GPT-5可能就算AGI了。OpenAI、Anthropic、Google,全部中枪。如果定义设得很窄,比如"在所有认知任务上全面超越人类的系统",那大家可以松口气,因为这东西可能十年内都不会出现。
科技公司的游说方向,一定是把定义往窄了推。越窄越好。最好窄到只描述科幻电影里的东西,那就等于没有监管。
但参议员们不傻。他们请的顾问团队里有搞AI安全的学者,有前科技公司高管,有军方背景的人。听证会上有参议员直接问:"如果我们用一个太窄的定义,等到AI真的造成大规模伤害的时候再改,来得及吗?"
来不及的。立法周期是以年计的,AI进化是以月计的。
钱在往哪里流,就看哪里
分析政策走向最靠谱的方法不是听政客说了什么,是看资本在干什么。
Forbes的报道里提到一个现象:大科技公司在AI监管问题上的政治投入,已经不是简单的"反对监管"了,而是分化成了不同阵营。有些公司在支持"合理监管",有些在拼命反对任何形式的监管。
为什么会分化?因为大家的利益不一样了。
如果你是微软,你已经把OpenAI绑得死死的,Azure云服务靠AI在狂卖。严格的监管对你来说是什么?竞争优势。你有钱合规,小公司没有。你有能力满足任何安全标准,创业公司满足不了。所以微软对"合理监管"是偏支持的。
但如果你是Meta,你在搞开源大模型。产品责任法案一来,开源模型怎么算?我把模型开源了,别人拿去做了坏事,我要不要担责?如果要担责,开源AI这条路基本就堵死了。
我前段时间看到一组数据,2025年全年,科技行业在AI相关政治游说上的花费超过了8亿美元。2026年一季度的数据还没出,但从目前的动作看,只多不少。
还有一个信号。特朗普政府想用联邦监管取代各州法规,表面上看是给科技公司减负(不用应对50个州50套规则了),但也给了联邦政府一个集中管控的抓手。你只需要搞定一套法规,就能管住所有人。这把双刃剑,科技公司接还是不接?
对投资者意味着什么
说点实在的。
如果你持有AI相关的股票,这个法案的进展值得持续跟踪。现在还在参议院阶段,距离真正立法还有很长的路。但市场从来不等法案通过才反应,预期阶段就开始定价了。
英伟达这种卖铲子的公司,受监管影响相对最小。不管监管怎么搞,AI公司都需要算力。但如果监管导致AI应用层的投资放缓,传导到算力需求上只是时间问题。这个我也没完全想明白,中间的传导链条可能比我想的更长或更短。
真正要小心的是纯AI应用公司。产品责任一旦落地,估值模型得全部重来。以前投资人给AI公司估值,默认的是高毛利、快速扩张、赢者通吃。但如果每个AI产品出事都要赔钱,利润率的假设就得打折。保险成本、合规成本、诉讼准备金,这些以前不存在的成本项会突然冒出来。
还有一类:AI安全和合规赛道。每一次监管收紧,都会催生一批新的中间商。SOC审计、AI安全测试、合规咨询,这些公司可能是监管浪潮里闷声发财的那批。
说几句大实话
我对AI监管的态度?说实话,很矛盾。
一方面,AI确实需要某种形式的约束。大模型的幻觉问题、深度伪造的泛滥、AI诈骗的爆发,这些不是假想的风险,是正在发生的事。放任不管,等出了大事再补救,代价只会更大。
但另一方面,我极其警惕由不懂技术的人来制定技术监管规则。国会议员连ChatGPT和Google的区别都不一定搞得清楚,你让他们定义AGI?想想就觉得魔幻。
还有一个更深层的问题。如果美国搞了严格监管,中国没搞(或者搞的是另一套),竞争格局会怎么变?AI不是汽车尾气排放,你一个国家减排了,别的国家照排,地球还是热。AI是军事、经济、科技竞争力的核心。你自缚手脚,对手不会陪你。
参议员们把AI比作核扩散,这个比喻值得细品。核武器最终靠什么管住的?不是单边裁军,是恐怖平衡加多边条约。AI的监管或许也需要类似的框架,但目前连个雏形都看不到。
所以这个法案大概率会经历漫长的修改、博弈、妥协。最终通过的版本可能跟现在提出的面目全非。但方向定了。
AI的蛮荒时代正在结束。不管你喜不喜欢。
免责声明:本文仅代表个人观点,不构成任何建议。欢迎留言讨论。
夜雨聆风