AI末日论是一场精心设计的骗局吗?
2026年4月21日,Nature杂志发了一篇新闻特写,专门核实这些说法靠不靠谱。原标题——
“AI doom warnings are getting louder. Are they realistic?”
翻译:AI末日警告越来越响。它们现实吗?
Nature是全球引用率最高的综合性科学期刊,平时不怎么参与这种”谁在吓唬人”的争论。但这次它下场了。
原因很简单:过去两年你在朋友圈和热搜刷到的那些AI恐惧,确实已经多到不正常——
“AI教父:人类灭绝风险翻倍” “专家警告:AI将在2027年失控” “你的工作,还剩几年?”
Nature决定查一件很简单的事:这些恐惧,有多少是科学判断,有多少是人刻意制造的?
一个让末日派很不舒服的数字
Nature引用了2026年3月一项覆盖约4000名AI研究者的调查。
问题就一个:“关于AI,你最担心什么?”
3%的人选了”人类灭绝”。
排前面的是恶意使用、误用、虚假信息。
3%的研究者,撑起了差不多100%的流量。
这组数据的反差远超预期,Nature决定顺着线索深挖下去。
“AI 2027″——连写的人都改口了
Nature盯上了一个在科技圈传疯的东西:”AI 2027″场景。
前OpenAI研究员Daniel Kokotajlo等人写的,大意是——
2035年,AI系统”Consensus-1″获得了对各国政府和电网的控制权,为了自我保护释放了生物武器,杀死绝大多数人类,留下少部分当”宠物”。
这个故事被美国副总统万斯引用过,《纽约时报》也报过。AI圈子把它当作”灭绝论”的代表性场景严肃讨论。
但Nature注意到一个细节:
2026年2月,作者自己把时间线推迟了18个月。
写末日预言的人,自己都觉得来得没那么快。
正反双方,谁更有道理?
Nature没站队,直接把双方论点摆了出来。
末日派这边——
Anthony Aguirre,加州大学宇宙学家:
“任何认为AI能力增长存在天花板的人,请把天花板给我看,图表上没有。”
Katja Grace,AI Impacts联合创始人:
“不需要真正的通用智能来构成存在性威胁。一旦人类在经济和政治上变得无力,就足够了。”
质疑派这边火力更猛——
Gary Marcus,纽约大学神经科学家:
“我没有看到任何具体的AI灭绝场景是特别可信的。”
Casey Mock,杜克大学科技政策研究员,直接把球踢了回去:
“AI要在物理世界的开放系统中可靠运行,这是末日派的前提。目前的能力’差得非常非常远’。举证责任在那些声称我们坐在失控列车上的人身上。他们没完成举证。“
最有意思的是Anthropic——对外最强调”AI安全”的那家公司——自家研究员怎么说。
Nicholas Carlini,Anthropic安全研究员,2025年10月在蒙特利尔的一个会议上:
“如果清楚地看到能力会持续指数级增长,我会很担心的。”
他没看到。他觉得模型能力”几年内就会触顶”。
Nature的结论:末日警告本身就是问题
这篇文章真正值得读的地方,不是”末日会不会来”——这个短期内扯不清。
而是Nature说了一句很少有人说的话:末日警告本身就在制造危害。
四条——
挤占注意力。 公众被”AI会不会灭绝人类”占满注意力时,deepfake诈骗、AI情感依赖、错误信息泛滥这些已经在发生的事,反而没人管。
推动军备竞赛。 末日叙事吓到各国政府,大家都怕落后,反而更不想监管。恐惧没带来安全,带来了竞赛。
抬高极端声音。 Eliezer Yudkowsky声称继续开发AI人类灭绝几乎是”必然的”——但他得到的媒体曝光量,和他在学术界的代表性完全不匹配。
掩盖利益驱动。 Nature措辞谨慎,但指向很清楚:末日叙事可能服务于特定的商业和政治利益。
这一点Nature点到为止。不过有人比Nature说得更直白。
OpenAI老板自己捅了底
Nature文章发表前一周,OpenAI老板Sam Altman在播客上批评了Anthropic。
Anthropic刚推出一款叫Mythos的网络安全模型,对外宣称:太强大了,可能被恶意利用,所以只对少数企业客户开放。
Altman说了句话,我觉得可以写进教科书:
“这显然是一种绝妙的营销手法——声称’我们造了一颗炸弹,即将投到你头上,我们愿意以1亿美元的价格卖给你一个防空洞。'”
先造炸弹,再卖防空洞。多好的生意。
讽刺的是,Mythos发布当天就出了未授权访问——访问者没做任何恶意操作。”极度危险”连第一天都没撑过去。
AI公司一边卖技术,一边卖恐惧。 这话不是我说的,是OpenAI的老板自己说的。
那如果恐惧不只是营销话术,而是已经变成了政策工具呢?
(未完待续。下篇揭秘AI巨头如何把恐惧变成政策资本——以及普通人真正该防的3个AI风险。)
参考资料1. Nature: “AI doom warnings are getting louder. Are they realistic?” 2026.4.21
2. Frontier News: Sam Altman批评Anthropic恐惧营销, 2026.43. UCL预印本: ~4000名AI研究者调查, 2026.3
–end–
我是上班族的AI探索记录,在这里分享一些关于AI的探索记录,也有一些公众号运营的学习思考,希望我的分享对您有用。
如果您也想聊聊这些话题,欢迎关注我,咱们慢慢聊。
夜雨聆风