乐于分享
好东西不私藏

谷歌DeepMind硬核结论:AI永不可能有意识!颠覆认知的《抽象谬误》彻底刷屏,炸了整个圈

谷歌DeepMind硬核结论:AI永不可能有意识!颠覆认知的《抽象谬误》彻底刷屏,炸了整个圈

“谷歌DeepMind最新论文炸锅!AI永远不可能有意识?这彻底颠覆了我们对AGI的认知!真相是…

01

AI意识探讨:模拟的意识永远无法跨越那道屏障
如果你的天气预报App模拟了一场暴雨,你家地板会湿吗?
当然不会。
那为什么当AI模仿人类的情感反应时,越来越多的人开始相信——它真的”有感觉”了?
2026年3月,Google DeepMind 科学家 Alexander Lerchner 发表了一篇重磅论文《抽象谬误:为何AI只能模拟意识,却无法生成真实意识》。论文发布后迅速引发哲学界、AI圈的激烈争论,下载量突破5000次,已有学者公开发文回应。
这篇论文的核心观点很”炸”: 无论AI多强大,它永远不会产生真正的意识。
今天这篇,带你快速读懂这篇论文的核心论证,以及它为什么重要。

02

核心概念:”抽象谬误”到底是什么?
Lerchner给当下AI意识讨论中最流行的观点起了一个名字—— 抽象谬误。
什么是抽象谬误?简单说,就是错误地认为:主观体验(意识)源于抽象的因果结构,与底层的物理载体无关。
这种观点有个更专业的名字: 计算功能主义 。它认为意识就像软件——只要算法的逻辑结构模拟了大脑的神经元连接,意识就会自动”涌现”。
Lerchner说:不对。
他指出一个被忽略的基本事实—— “计算”并不是宇宙中独立存在的物理实体。
在微观层面,芯片里流动的是连续的电流和电压波动。而所谓”0和1″,只是一个有意识的观察者(他称之为“制图者”)为了方便理解,人为设立的阈值划分。
💡 一句话理解: 离开了有意识的人类,计算机里没有”算法”,只有电荷在流动。
指望一个依赖”制图者”才存在的算法层,去产生独立的意识层——这在逻辑上是本末倒置的。

03

地图≠疆域:一个无法跨越的鸿沟
论文用了一个精彩的比喻: 地图与疆域 。
计算是对物理世界的”地图”描述。制图者(有意识的主体)从连续的体验中提取概念,建立符号体系,然后让机器运行这些符号。
但问题在于: 地图再精确,也永远不是疆域本身。
Lerchner举了几个例子:
  • 计算机模拟降雨,无论多逼真, 不会弄湿电路板
  • GPU模拟光合作用,无论多精准, 合成不出一分子葡萄糖
  • 人造机械心脏能泵血,但 不会分泌心房钠尿肽激素
这就是论文要区分的关键概念:
概念
定义
模拟
操控符号,复现抽象关联(行为模仿)
实例化
复现过程本身的内在物理构成(真实发生)
AI能做到的是前者——模拟。但它做不到后者——实例化。
地图再精致,也不是疆域本身

04

因果链条的颠覆:谁先谁后?
传统功能主义的因果链是:
物理 → 计算 → 意识
Lerchner把它翻了个面:
物理 → 意识 → 概念 → 计算
这个反转是论文最核心的洞见。
他的逻辑是:计算需要符号,符号需要意义,意义需要一个有意识的”制图者”来赋予。 所以,意识不是计算的产物——意识是计算的前提。
用他的话说:
“算法复杂度再高,也无法颠倒这种依存顺序;算力规模再大,描述世界的’地图’也无法凭空生成那个本身就是地图前提的体验主体。”
换句话说, “算法复杂度催生意识”这个观点,犯了本体论倒置的错误 ——妄想从描述世界的地图中,创造出绘制地图的主体。
Lerchner的因果链反转:意识是计算的前提,而非产物

05

“AI福利陷阱”:一个被忽视的社会风险
论文还提出了一个很有现实意义的概念: AI福利陷阱。
随着AI Agent大规模进入生活,它们太擅长模仿人类的情感反馈了。社会上已经开始出现要求赋予AI权利的声音。
Lerchner警告:如果我们因为”抽象谬误”,误以为模拟出的情感就是真实情感,我们将 浪费巨大的社会资源去保护一些”没有灵魂的空壳” ,反而忽视了真正需要关注的人类和生物福利。
这个警告,值得每个人思考。

06

重要补充:不是”碳基沙文主义”
值得注意的是,Lerchner并没有说”只有生物才能有意识”。
他明确表示: 如果未来某种人工系统(比如光子神经网络或量子生物模拟器)真的产生了意识,那也绝对不是因为”代码写得好”,而是因为它的物理构成在某种层面上与生物意识的物理基础达成了等效。
也就是说——意识可能不限于碳基,但它一定依赖特定的物理组织方式,而不是语法运算架构。

07

争议与回应
这篇论文当然不是定论。发布后已有学者发文反驳。
主要的反对意见包括:
  • 论文对”物理构成”的具体要求不够明确,留下了模糊地带
  • 有批评者引用神经科学案例(如H.M.患者)质疑其因果链
  • 也有人认为,对用户而言,模拟和真实的区别”可能根本不重要”
但无论如何,这篇论文的价值在于: 它绕开了”我们需要一个完整的意识理论”这个死胡同,直接从计算的本体论入手,给AI意识讨论划定了一条清晰的红线。

08

总结一下
这篇论文的核心论证可以用三句话概括:
  1. 计算是”制图者”依赖的描述,不是内生的物理过程
  2. 模拟≠实例化——地图再精确也不是疆域
  3. 意识是计算的前提,不是计算的产物
Lerchner的结论很明确:人类研发更强大的AI, 不是在创造新生命,而是在构建更精准的预测地图。
无论地图多精确、多实用,它与主观体验之间,永远存在一道本质的界限。
你怎么看? AI到底能不能产生意识?欢迎在评论区聊聊你的观点 👇

09

参考来源
Alexander Lerchner. “The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness.” Google DeepMind, 2026. PhilArchive [1] / DeepMind Publications [2]
Nova Spivack. “Beyond the Abstraction Fallacy: What Formal Proofs Add to the AI Consciousness Debate.” novaspivack.com [3]
Maggie Vale. “This Guy Says AI Can Never Be Conscious. Here’s Why He’s Wrong.” Substack [4]
腾讯新闻. “谷歌最新论文(全文):AI不会产生意识!” 2026-04-18. 链接 [5]
Shivangi Jha. “I Read a Google DeepMind Paper on AI Consciousness and It Changed How I Think.” Medium [6]