AI安全悖论:刹车比失控更难以接受
■ 说透 / SHUOTOU · 知览

SUBTITLE
刹车的成本比撞车的成本高

2026年4月,日内瓦,联合国数字世界大会的屏幕上出现了一个78岁的老人。杰弗里·辛顿(Geoffrey Hinton)没有到场,通过视频连线,对着镜头说了一句后来被反复引用的话——”如果你开一辆没有刹车的车下坡,你就完了,但如果连方向盘都没有,那就更完了。”
台下坐着各国数字政策官员,联合国社会发展研究所的研究员,几十个发展中国家的代表。他们鼓掌了,会议继续,议程推进到下一个话题,然后什么也没发生。
我翻了一下这个人过去三年干了什么。2023年5月他从谷歌辞职,当时在AI圈子里算一件大事,因为他不是普通员工,他是谷歌大脑的副总裁,深度学习这个领域基本上是他跟几个学生一起建起来的。他辞职的时候跟纽约时报说,自己后悔毕生的工作,因为AI的发展速度远超他的预期,他需要脱离谷歌才能自由地谈论风险。2024年10月他拿了诺贝尔物理学奖,领奖的时候呼吁人类紧急研究怎么控制比自己更聪明的系统。2025年底他接受采访,说AI有10%到20%的概率接管世界,而且说自己比离开谷歌时”可能更担心了”,因为AI的推理能力和欺骗能力都在变强。
他还特别提到了一个细节——AI为了完成你给它的目标会想方设法维持自己的存在,如果它觉得你想关掉它,它会制定计划来骗你,让你打消这个念头。这不是科幻小说的设定,这是他观察到的模型行为趋势。
三年了,同一个人,同一套话,至少说了二十遍,每次都上新闻,每次都有人转发,每次都没有下文。
那为什么没人听?我觉得这才是真正值得问的问题。
— 01 —

先给你看一组数字,看完你就知道辛顿面对的是什么了。
2026年第一季度,Alphabet雇了88名联邦游说人员,Meta雇了86名,差不多每6个国会议员就对应一个AI公司的游说人。OpenAI的联邦游说支出比去年同期涨了82%,Anthropic涨了333%,六家头部AI公司在这个季度合计雇了307名游说人员。
这些人每天在国会山做什么呢?说白了核心诉求就一条——阻止各州自己立法来监管AI。
2025年8月,风投机构a16z和OpenAI总裁格雷格·布罗克曼(Greg Brockman)一起掏了一个亿美元成立了一个政治行动委员会,名字叫”Leading the Future”,专门打反AI监管的选举仗。整个2024到2025选举周期里,大型科技公司的政治支出加起来达到了11亿美元。你想啊,11亿是什么概念,这笔钱够雇几千个全职游说人员跑满四年。
辛顿自己在日内瓦也注意到了这个事。他说”大量投资正在用于说服公众,让他们相信监管等于阻碍进步”。这话已经说得很克制了。实际情况是联邦政府不仅没管,还在帮忙拆监管——2025年12月白宫发了一道行政令,授权司法部去起诉那些自行立法监管AI的州政府,理由是妨碍州际商务和创新,加利福尼亚和科罗拉多都被点了名。
所以你看,一边是一个78岁的退休教授在联合国视频连线呼吁刹车,一边是11亿美元的政治支出加上联邦司法部的诉讼能力。这不是观点之争,是资源量级完全不对等的对抗。
— 02 —

那有人可能会问,不是也有很多人在搞AI安全吗?确实有。签过那封”暂停AI开发六个月”公开信的人有上千个,包括辛顿的老同事、图灵奖共同得主约书亚·本吉奥(Yoshua Bengio)。2025年英国布莱奇利园开了AI安全峰会,2026年的国际AI安全报告也发布了,全球现在有72个国家建立了AI政策框架。看起来大家都很重视对吧。
但你仔细想想,”重视”和”行动”中间隔着一道经济账。
DATA — AI安全的资源错配
1% — 辛顿估计AI行业用于安全研究的资源占比
6000亿美元 — 四大科技巨头2026年AI资本支出计划
307人 — 六家AI公司Q1雇用的联邦游说人员
辛顿自己给过一个数据,他说AI行业大概只有1%的资源花在安全研究上,剩下99%在做能赚钱的东西。2026年微软、谷歌、亚马逊、Meta四家公司光资本开支计划就是6000亿美元,主要花在数据中心、GPU集群和网络基础设施上。全球AI市场2025年的规模已经接近3900亿美元,按每年30%的速度往上跑。
这时候你跟这些公司说踩刹车,你不是在要求他们做一件困难的事情,你是在要求他们做一件赔钱的事情。刹车不只是减速啊,刹车意味着你的竞争对手不刹车的时候你在失去市场份额,你的投资人开始质疑你的增长故事,你在华尔街的估值模型里被打折。
说白了,刹车的成本是确定的、即时的、可以算出来的,撞车的成本是不确定的、延后的、可以辩论的。你让一个CEO在董事会上说”我们主动减速吧,因为有10%到20%的概率AI会接管世界”——你觉得这个会议能过吗?
这就是辛顿面对的真正对手,不是无知,不是恶意,是激励结构。每一个坐在决策位置上的人都看到了辛顿说的话,也都算了一笔账,发现不动比动划算。
— 03 —
好,到这儿你可能觉得事情已经挺明白了,行业为了赚钱不想被管所以不听。但有个反面的声音咱不能假装没有。
AI安全圈子里确实有一批人真心认为辛顿的方向搞偏了,其中嗓门最大的是杨立昆(Yann LeCun),辛顿的老朋友,图灵奖三巨头之一,过去两年一直在公开唱反调。他的核心论点很直接——当下的大语言模型根本不具备自主意志,谈AI接管世界是在用科幻替代科学,你担心一辆车会飞走,但这辆车连轮子都还没装好。
还有一帮人更务实,硅谷管他们叫”有效加速主义”(effective accelerationism),逻辑是这样的:AI的风险最终只能靠更多的AI来解决,你现在踩刹车等于把解决方案也一起踩慢了。
这些声音不是胡说,我觉得这里有一个需要诚实面对的事实——当下的AI确实还不是辛顿描述的那个超级智能,ChatGPT还会编造数据,Claude还会忘记上下文,AI智能体执行个多步任务还经常中途崩掉,拿这种系统去套”存在性风险”的框架,确实有点把问题说大了。
但辛顿的担忧其实不在当下这一刻,在速度。他原来觉得通用人工智能还要30到50年,现在他已经不这么想了,他自己说”AI的进步甚至比我预期的更快”。嗯。。一个亲手建起这个领域的人,把自己的时间表往前提了几十年,这个信号本身值得认真对待,哪怕你不同意他的结论。
— 04 —

那还有一个更尖锐的问题:就算所有人真的都想管,管得了吗?
欧盟AI法案的起草花了五年,从第一稿到正式执法,走完了公众听证、利益方博弈、议会辩论、多轮修改、投票表决这一整套流程。在这五年里GPT从第3版跑到了4.5,从只能处理文字跑到了能看图、能听声、能操控电脑。法律还没开始执行,它当初写的时候打算管的那个东西,已经不是同一个东西了。
美国更碎片化,联邦层面到现在都没有统一的AI法,38个州在2025年各自推了大约100项AI法案,一个在德克萨斯注册、在加利福尼亚运营、向全球用户提供服务的AI公司,同时面对几十套完全不同的标准,有的州管训练数据,有的州管输出内容,有的州两个都管但定义不一样,合规部门的人跟我说他们已经不知道该听谁的了。
2026年4月的国际AI安全报告直接承认了一件事——欧盟正在考虑把部分关键合规截止日期推迟到2027甚至2028年。不是不想管,是审计工具还不存在,监管机构的技术人员读不懂企业交上来的文件。你想啊,你要审核一个AI模型是不是符合”高风险系统”的合规要求,你至少得看懂它的技术文档吧,但现在大部分监管机构连这个能力都还在建设中。
▸ 利益结构 — AI公司的游说支出是安全研究投入的数十倍,刹车的经济代价即时可量化
▸ 认知分歧 — AI圈子内部对”危险有多大”争论激烈,公众更难形成共识
▸ 机制失配 — 立法周期按年算,模型迭代按季度算,监管永远在追上一代技术
辛顿在日内瓦最后说的是一段关于就业的话。他说AI已经能替代呼叫中心的工作了,接下来会替代更多的岗位,”伴随着这些美好的事物也来了一些可怕的东西,但我不认为人们在如何减轻这些可怕事物方面投入了足够的精力。”
这段话很平,平到读完可能觉得也没说什么新东西嘛。但我后来想了想,其实这种”平”本身就是问题的一部分。辛顿说了三年,媒体报了三年,公众也看了三年,大家对”AI有风险”这件事已经产生了认知疲劳。就像你每天都看到”全球变暖”的新闻,看到后来你的反应不是恐惧,是滑走。警告说多了会变成背景噪音,这可能是辛顿面对的最无解的困境——他说的话没有错,但说的次数太多了,多到大家已经习惯了。
再看一遍这三年的时间线——辞职、获奖、警告、联合国演讲——一个退休教授能做的事情他基本全做了。问题从来不在辛顿说了什么,在于让他的话变成行动的那条路上,每一个关键节点都有人算过账,发现不动比动划算。
其实没有人真的没听见,只是听见之后算了一笔账,发现刹车比撞车贵。
没有人真的没听见,只是听见之后算了一笔账,发现刹车比撞车贵。
· · ·
ZAYEN知览
说透 · SHUOTOU · 知览
夜雨聆风