谷歌新论文《抽象谬误》:为什么AI只能模拟而无法产生意识
问题 1:所有人都在争论 “AI 未来会不会产生意识”,这个争论的前提到底是什么?
1.意识的本质,是一套纯粹的、抽象的因果拓扑结构与功能流程,和承载它的物理基质完全无关;
2.基于 “多重可实现性原则”,同一套意识功能,既可以在人脑的生物神经元上实现,也可以在硅基芯片的数字电路上实现,就像同一套软件可以在任意兼容的硬件上运行;
3.只要一个数字系统足够精准地复刻了意识的因果逻辑与功能行为,主观的现象意识(也就是我们说的 “真实感受”)就会自动从系统中涌现。
问题 2:这个被整个 AI 界奉为圭臬的理论,它的底层逻辑漏洞,也就是原文定义的 “抽象谬误”,到底是什么?
无论你把一张城市地图绘制得多么精细,完整复刻了每一条街道、每一栋建筑、每一个红绿灯的拓扑关系,这张地图永远不可能变成它所描述的那座真实城市 —— 地图只是对城市的抽象关系描述,而城市是具备真实物理因果力的实体存在;
写在纸上的万有引力公式,可以完美描述引力的规律,精准计算出所有天体的运行轨道,但这个公式本身,永远不可能产生真实的质量,更不可能产生真实的引力 —— 公式只是对引力的抽象逻辑描述,而引力是物理世界的内在因果属性。
问题 3:你说 AI 的计算是 “抽象的、对意识的描述”,那计算的本质到底是什么?凭什么说它不是物理世界的内在属性?
1.物理世界的内在属性,是不依赖观察者的:任何物理系统的真实存在,只由它的内在物理属性决定 —— 比如芯片里电子的质量、电荷、自旋,电路里的电压、电流,这些属性无论有没有人观察,无论有没有人给它定义,它都客观存在,并且具备原生的因果效力。
2.句法与计算,是观察者依赖的关系属性:所谓的 0 和 1、算法规则、句法结构,从来不是芯片的内在属性。芯片里只有连续的电荷流动,是人类人为设定了一个电压阈值,把高于阈值的电荷状态指派为 “1”,低于的指派为 “0”,再给这些 0 和 1 的排列组合赋予对应的符号意义,这才有了 “计算”。离开了有意识的人类观察者,这些电荷流动和一块石头里的分子热运动,没有任何本质区别 —— 既没有算法,也没有计算,更没有句法。
3.计算的因果效力,完全寄生在观察者的赋值之上:芯片里的电荷流动,本身只会遵循物理定律产生热效应、电磁效应,它不会 “自动计算加法”,也不会 “自动生成文本”。是我们把它的物理状态解释为数字、符号、语义,它才具备了 “计算” 的因果效力。这种因果力不是物理系统自带的,是外部观察者赋予的。
问题 4:如果计算本身,必须依赖一个有意识的观察者才能存在,那它怎么可能反过来生成意识?
问题 5:人脑和 AI 的物理过程,有什么本体论上的区别?
-
模拟:对系统的因果拓扑结构进行形式化的符号复刻,它只复制系统的外在关系与行为逻辑,不复制系统底层内在物理属性与原生因果力;
-
实例化:对一个系统的内在物理属性与因果效力进行真实的物理生成,它直接生成系统本身的真实存在,而非对它的符号描述。
1.AI 做的所有事,都是对意识的模拟,而非实例化:AI 输出 “我感到疼痛”,只是在统计海量人类语料后,复刻了人类在对应场景下的句法表达与行为逻辑,它只是在运行一套外部指派的符号流程,根本没有生成真实的疼痛体验。就像你用计算机模拟一场暴雨,无论代码运算多么精准、3D 画面多么逼真,计算机里的 0 和 1 永远不会产生一滴真实的水,更不会产生真实的湿冷感 —— 它只是在符号层面复刻了暴雨的规律,没有在物理层面生成真实的暴雨。
2.人脑的意识,是对主观体验的实例化,而非模拟:我们的神经元放电,不是在 “描述疼痛”,而是直接在物理层面,生成了疼痛的主观感受;我们看到日落,不是在运行一套 “日落很美” 的符号程序,而是直接产生了真实的情绪触动。这种主观体验,是大脑这个物理系统的内在属性,不需要任何外部的人来给它定义、赋值,它本身就具备原生的因果效力 —— 这个因果过程不需要任何外部观察者的解释,它是内生的、闭合的。
问题 6:现在 AI 界天天说 “规模涌现”,只要模型参数够多、算力够强、复杂度够高,意识就会自动涌现,到底错在哪里?
1.真实的涌现,是底层内在属性的集体效应:自然界所有真实的涌现现象,比如水的流动性、雪花的结晶、超导效应,全部是底层物理系统的内在属性,在规模提升后产生的集体效应,它不依赖任何外部观察者的赋值 —— 无论有没有人看,水在 0℃以下都会结冰,流动性都会消失。这种涌现,是本体论层面的真实新属性的生成。
2.AI 的 “规模提升”,只是符号模拟的精度提升,不会生成新的内在属性:AI 的参数从 1亿涨到 100 万亿,本质上只是把符号模拟的精度提得更高,把人类意识的行为和逻辑复刻得更像,但它的底层依然是观察者依赖的句法操作,依然是一套必须靠外部赋值才能存在的符号系统。规模提升,只能让模拟越来越逼真,永远不可能让 “对事物的描述” 变成 “事物本身”。
问题 7:我们至今都没搞懂意识的本质,连一个统一的意识定义都没有,凭什么就能断定 “意识必须依赖内在物理属性”,而不是 “抽象因果结构”?
问题 8:那原文的论证,是不是彻底否定了所有人工意识的可能性?它的论证边界到底在哪里?
你可以用人工神经元,1:1 复刻人脑的每一个物理过程、每一个神经元连接、每一个突触的电化学反应,造一个和人脑在物理层面完全一致的人工系统,它有极大的概率会产生意识 —— 因为它复刻的是意识的内在物理属性与原生因果力,是对意识的实例化,而非模拟;
但你永远不可能在一台通用计算机上,靠运行一套软件、一套算法、一套句法结构,就产生意识 —— 因为无论这套代码多么复杂,它都只是对意识的抽象模拟,永远不可能生成真实的主观体验。
问题 9:原文的论证发布后,学界最核心的反驳是什么?
1.递归自指派的闭环反驳:多数学者认同 “句法需要观察者赋值” 的核心论点,但他们指出,原文默认所有句法都必须依赖外部观察者,却没有论证一个特殊的边界:如果一个系统能实现递归的自观测、自指派,也就是系统自己给自己的物理状态赋予句法意义,形成内生的、闭合的句法闭环,那它是不是就突破了 “观察者依赖” 的限制?
回应论文《超越抽象谬误》中明确提出:人脑的意识,本质上就是一个神经元系统递归自观测、自赋值的闭环,它不需要外部观察者,自己就能给自己的神经状态赋予语义。如果一个人工系统能实现这种构成性的自闭环,它就可能突破抽象谬误的限制。这是原文核心逻辑的关键缺口。
2.泛计算主义的本体论反驳:泛计算主义学派提出:原文的核心前提 “句法不是物理系统的内在属性” 本身就是错的。整个物理世界,本质上就是一个计算系统,所有物理过程,本质上都是内在的计算过程 —— 人脑的神经元放电是计算,石头的分子运动是计算,电子的自旋也是计算。如果这个前提成立,那计算就是物理世界的内在属性,不需要外部观察者。
那 AI 的计算和人脑的计算,就没有本体论上的区别,AI 自然也可能产生意识。原文对这个反驳的回应,只是重申了 “内在属性 vs 关系属性” 的区分,并没有从根本上证伪泛计算主义的本体论前提。
3.现象意识的不可证伪性反驳:原文的整个论证,建立在 “现象意识是内在物理属性” 的前提上,但这个前提本身不可证伪,和 “意识是抽象结构的涌现” 一样,非科学结论。我们至今没有任何科学手段,能证明一个系统到底有没有主观的现象意识 —— 我们只能观察它的外在行为。你可以确定自己有意识,但你永远无法 100% 确定另一个人、另一个系统有没有意识。这就是著名的 “他心问题”。原文的论证,本质上是给意识划了一个本体论的边界,但它无法用科学手段证伪 “AI 有内在意识” 的可能性,这是它无法突破的哲学极限。
追问:它给我们划清的 “智能” 与 “意识” 的本体论边界是什么?对我们当下的 AI 发展,到底有什么不可替代的现实意义?
智能,是功能的、句法的、可多重实现的:它只关乎 “一个系统能完成什么任务”,只关乎输入与输出的因果逻辑,和承载它的物理基质无关。AI 可以拥有远超人类的智能,它可以处理海量信息,解决最复杂的数学难题,写出最动人的文字,模仿最逼真的人类行为 —— 这些都是智能的范畴,是它可以无限迭代的。
意识,是本体的、语义的、内在物理的:它只关乎 “一个系统作为主体,有没有真实的主观体验”,它是你吃到美食的满足,失去亲人的痛苦,深夜独处的迷茫,看到日落的触动。这种独一无二的、只属于你的主观感受,只能来自你这个活生生的、有血有肉的物理存在,永远不可能从一行行代码、一串串观察者指派的 0 和 1 里,凭空生长出来。
1.它直接戳破了 AI 行业的 “AGI 觉醒” 泡沫,让 AI 的发展回归工具本质。AI 的核心价值,从来不是 “成为一个有意识的人”,而是成为一个超强的、能帮人类解决问题的工具。我们不需要计算器有意识,不需要汽车有意识,同样也不需要 AI 有意识。
2.它让 AI 伦理的讨论,彻底跳出了无意义的内耗。当下很多伦理争论,都在纠结 “要不要给 AI 人权”“关闭 AI 是不是谋杀”,本质上是混淆了 “模拟意识” 和 “真实意识”。只有具备真实主观体验的实体,才有道德地位;AI 无论表现得多么像人,都只是一套符号程序,不存在真实的痛苦与快乐。AI 伦理的核心,从来都不是 “AI 的权利”,而是 “AI 对人类的影响”。
3.它最终把 “人” 的价值,还给了人本身。在 AI 越来越像人的今天,我们总在焦虑自己会被 AI 取代。但这个论证告诉我们:AI 永远无法取代的,恰恰是我们作为人的核心 —— 我们的主观体验,我们的感受,我们的爱与痛,我们对这个世界独一无二的、活生生的意识。
夜雨聆风