乐于分享
好东西不私藏

AI末日论是一场精心设计的骗局吗?

AI末日论是一场精心设计的骗局吗?

你最近是不是也经常看到”AI要灭绝人类”的消息?

2026年4月21日,Nature杂志发了一篇新闻特写,专门核实这些说法靠不靠谱。原标题——

“AI doom warnings are getting louder. Are they realistic?”

翻译:AI末日警告越来越响。它们现实吗?

Nature是全球引用率最高的综合性科学期刊,平时不怎么参与这种”谁在吓唬人”的争论。但这次它下场了。

原因很简单:过去两年你在朋友圈和热搜刷到的那些AI恐惧,确实已经多到不正常——

“AI教父:人类灭绝风险翻倍” “专家警告:AI将在2027年失控” “你的工作,还剩几年?”

Nature决定查一件很简单的事:这些恐惧,有多少是科学判断,有多少是人刻意制造的?

一个让末日派很不舒服的数字

Nature引用了2026年3月一项覆盖约4000名AI研究者的调查。

问题就一个:“关于AI,你最担心什么?”

3%的人选了”人类灭绝”。

排前面的是恶意使用、误用、虚假信息。

3%的研究者,撑起了差不多100%的流量。

这组数据的反差远超预期,Nature决定顺着线索深挖下去。

“AI 2027″——连写的人都改口了

Nature盯上了一个在科技圈传疯的东西:”AI 2027″场景。

前OpenAI研究员Daniel Kokotajlo等人写的,大意是——

2035年,AI系统”Consensus-1″获得了对各国政府和电网的控制权,为了自我保护释放了生物武器,杀死绝大多数人类,留下少部分当”宠物”。

这个故事被美国副总统万斯引用过,《纽约时报》也报过。AI圈子把它当作”灭绝论”的代表性场景严肃讨论。

但Nature注意到一个细节:

2026年2月,作者自己把时间线推迟了18个月。

写末日预言的人,自己都觉得来得没那么快。

正反双方,谁更有道理?

Nature没站队,直接把双方论点摆了出来。

末日派这边——

Anthony Aguirre,加州大学宇宙学家:

“任何认为AI能力增长存在天花板的人,请把天花板给我看,图表上没有。”

Katja Grace,AI Impacts联合创始人:

“不需要真正的通用智能来构成存在性威胁。一旦人类在经济和政治上变得无力,就足够了。”

质疑派这边火力更猛——

Gary Marcus,纽约大学神经科学家:

“我没有看到任何具体的AI灭绝场景是特别可信的。”

Casey Mock,杜克大学科技政策研究员,直接把球踢了回去:

“AI要在物理世界的开放系统中可靠运行,这是末日派的前提。目前的能力’差得非常非常远’。举证责任在那些声称我们坐在失控列车上的人身上。他们没完成举证。

最有意思的是Anthropic——对外最强调”AI安全”的那家公司——自家研究员怎么说。

Nicholas Carlini,Anthropic安全研究员,2025年10月在蒙特利尔的一个会议上:

“如果清楚地看到能力会持续指数级增长,我会很担心的。”

他没看到。他觉得模型能力”几年内就会触顶”。

Nature的结论:末日警告本身就是问题

这篇文章真正值得读的地方,不是”末日会不会来”——这个短期内扯不清。

而是Nature说了一句很少有人说的话:末日警告本身就在制造危害。

四条——

挤占注意力。 公众被”AI会不会灭绝人类”占满注意力时,deepfake诈骗、AI情感依赖、错误信息泛滥这些已经在发生的事,反而没人管。

推动军备竞赛。 末日叙事吓到各国政府,大家都怕落后,反而更不想监管。恐惧没带来安全,带来了竞赛。

抬高极端声音。 Eliezer Yudkowsky声称继续开发AI人类灭绝几乎是”必然的”——但他得到的媒体曝光量,和他在学术界的代表性完全不匹配。

掩盖利益驱动。 Nature措辞谨慎,但指向很清楚:末日叙事可能服务于特定的商业和政治利益。

这一点Nature点到为止。不过有人比Nature说得更直白。

OpenAI老板自己捅了底

Nature文章发表前一周,OpenAI老板Sam Altman在播客上批评了Anthropic。

Anthropic刚推出一款叫Mythos的网络安全模型,对外宣称:太强大了,可能被恶意利用,所以只对少数企业客户开放。

Altman说了句话,我觉得可以写进教科书:

“这显然是一种绝妙的营销手法——声称’我们造了一颗炸弹,即将投到你头上,我们愿意以1亿美元的价格卖给你一个防空洞。'”

先造炸弹,再卖防空洞。多好的生意。

讽刺的是,Mythos发布当天就出了未授权访问——访问者没做任何恶意操作。”极度危险”连第一天都没撑过去。

AI公司一边卖技术,一边卖恐惧。 这话不是我说的,是OpenAI的老板自己说的。

那如果恐惧不只是营销话术,而是已经变成了政策工具呢?

(未完待续。下篇揭秘AI巨头如何把恐惧变成政策资本——以及普通人真正该防的3个AI风险。)

参考资料1. Nature: “AI doom warnings are getting louder. Are they realistic?” 2026.4.21

2. Frontier News: Sam Altman批评Anthropic恐惧营销, 2026.43. UCL预印本: ~4000名AI研究者调查, 2026.3

–end–


我是上班族的AI探索记录,在这里分享一些关于AI的探索记录,也有一些公众号运营的学习思考,希望我的分享对您有用。

如果您也想聊聊这些话题,欢迎关注我,咱们慢慢聊。