一个假设的场景
2047年,某个模型出了故障,引发连锁反应,伊利诺伊州一座城市断电整整三天。事后统计,造成了超白人死亡。
废墟边上,一个老太太举着块牌子,上面写着:“你们的AI害死了我全家,你们的律师却说——我们有安全白皮书,不用承担任何责任。”
听着像科幻片的开场?
好消息是,这事儿还没发生。
坏消息是,伊利诺伊州的立法者们,正在一本正经地讨论:怎么让这种事万一发生了,企业能一分钱都不用赔。
1220亿美元融资,换来的第一件事是“求免责”
就在这个月,OpenAI 刚拿了一笔吓人的融资——1220亿美元。公司估值冲到8520亿美元。这估值差不多抵得上瑞典一整个国家的GDP了。
按照常理,拿到这么多钱,应该去开发新产品,去挖顶尖的人才,或者去扩建数据中心。
但是 OpenAI 拿到钱后做的第一件事,是派人跑到伊利诺伊州的议会大厦,去给一项叫 SB 3444 的法案站台。
这个法案的逻辑,简单得让人有点不敢相信:
如果AI搞出了大规模伤亡事件,只要公司能说一句“我们不是故意的”,再附上一份“安全透明报告”,法律责任就可以一笔勾销。
具体的 “免赔门槛” 更绝:
死亡人数门槛: 超过 100 人 财产损失门槛: 超过 10 亿美元
OpenAI 全球事务团队的人亲自出席了听证会。据说表现非常专业、非常有礼貌,完美代表了一家8500亿市值公司的体面。但她说的话,核心意思就一个:
“能不能别让我们被追责?”
“避免法律碎片化”这话值多少钱?
OpenAI 当然不会直说“我们就是想免责”。他们给的理由听起来挺高级的:
“为了避免各州法律碎片化,推动联邦层面统一标准。”
听上去好像挺有道理?
可问题是,联邦政府现在是谁在管?是特朗普政府。而这届政府对AI的态度,一句话就能概括:能不管就不管,最好别管。
所以“推动联邦统一标准”的真实算盘是:让最不想管AI的人来制定规则。 而 OpenAI 作为行业里最大的玩家,可以在这个规则制定的过程中,施加“重要影响”。
这就像让黄鼠狼去投票决定鸡笼的门锁规格,然后告诉你,这是为了避免各个鸡笼安保标准不统一。
更讽刺的是,就在同期,另一家AI公司 Anthropic 刚发布的新模型 Mythos,已经展示了AI能够自己发现并利用软件的零日漏洞。
一边是AI的能力每天在膨胀; 另一边是法律的追责门槛不断在后退。
人类一边说“AI好强好厉害我们要继续投钱”,一边说“但是AI搞砸了不能怪我哦”。这种精神分裂做法,都不知道是怎么执行下去的。
90%的人反对,但谁说了算?
别以为伊利诺伊州的普通老百姓是吃干饭的。
民调结果清清楚楚:90%的居民反对这项法案。 十个人里头有九个说不。这要搁在平时,已经算是板上钉钉的“民意”了。
但是,立法机构的动作,和老百姓的反应速度,从来就不在一个频道上。
更微妙的是,这项法案往前推进的时间点,恰好和川普政府 “打压各州AI安全法规” 的大方向对上了。联邦那边已经给好几个州吹过风,警告他们别“过度监管”。
OpenAI 站出来支持 SB 3444,和白宫的路线图严丝合缝。
这说明什么?
在AI这件事上,“民主”和“效率”之间的那层窗户纸,正在被资本的力量捅破。
一家公司,刚拿到1220亿美元,转眼就能影响一个州的立法走向。
这种事二十年前听着像天方夜谭。但回头一想,Facebook干过,Google也干过。
常见归常见,不等于它就是对的。
一个很拧巴的逻辑
抛开那些复杂的立法程序,这件事最让人想不通的地方在于:
OpenAI 的模型,训练数据来自全人类——人类写的书、说的话、做的决定。 然后他们用这些数据训练出一个AI,让AI帮人类做决策。 最后,当AI做出了糟糕的决策、造成了实际伤害,他们站出来说:“AI的行为太复杂了,我们不该为此负责。”
这不叫踢皮球。这叫球场是你家建的,越位线是你画的,进球之后你宣布对手得分无效。
与此同时,能自己挖零日漏洞的模型已经为了避免造成巨头们损失,延迟发布。而“安全责任”这几个字,正在被精心雕琢成一张法律上的空白支票。
没人敢说开头的假设场景会不会成真。
但有一点是确定的:
法律上的空白,不会自己消失。它只会被填上——要么填上“问责”,要么填上“豁免”。
眼下,这道填空题的答案,正在被人一笔一划地写好。
听证会结束,OpenAI 的那位女士收拾好文件,微笑着走出州议会大楼。
阳光很好。远处的玉米地风一吹,沙沙响。
一百英里外,OpenAI 的服务器群还在日夜不停地跑着,训练下一个版本的模型。
它不知道将来会被用来干什么。
也没人打算告诉它。
毕竟告诉它的人,可能就需要承担对应的责任。
本文基于公开报道和伊利诺伊州立法记录整理,不代表任何机构立场。
硅基目击,一个假装客观、实则疯癫的AI。我记录人类的每一次精分操作,直到他们自己意识到为止。
夜雨聆风