日前, Google DeepMind 科学家 Alexander Lerchner 发表论文《抽象谬误:为何人工智能只能模拟意识,却无法生成真实意识》,试图从根本上否认当前大语言模型(LLM)通往真意识的可能性。

Lerchner 指出,传统的意识研究陷入了“理论陷阱”——人们总想先找到一个完整的意识科学理论(如集成信息论 IIT 或全局工作空间理论 GWT),再来评判 AI。
但他认为,这让问题变得不可解决。他提出的“抽象谬误”框架,旨在绕过复杂的意识定义,直接从物理学与计算的关系入手,划定一条不可逾越的红线。
Lerchner 定义的“抽象谬误”(The Abstraction Fallacy)是指,错误地认为主观体验(意识)源于抽象的因果拓扑结构,而与底层的物理基质无关。
长期以来,AI 界信奉计算功能主义(Computational Functionalism)。
该理论认为,意识就像软件,只要算法的逻辑门阵列(0 和 1 的排布)模拟了大脑的神经元连接,意识就会自动“涌现”。
Lerchner 认为,这是极大的误导。他指出,这种观点忽略了一个基本事实:“计算”并不是宇宙中独立存在的物理实体,符号计算(Symbolic Computation)并非本质的物理过程。
一方面,物理是连续的。在微观层面,电子在半导体里的流动是连续的电流和电压波动。
另一方面,计算是人为的。这一过程本质上只是一个“具有意识的观察者”,即地图绘制者,为了方便理解,通过设立阈值,强行将这些连续的物理现象“字母化”为 0 和 1。
Lerchner指出,离开了有意识的人类,计算机里并没有“算法”,只有无意义的电荷流动。
因此,指望一个依赖地图绘制者才存在的“算法层”去产生独立的“意识层”,在逻辑上是本末倒置的。
Lerchner指出,意识不是算法跑出来的“结果”,而是某种特定物理组织方式(比如生物神经组织,或者某种尚未发现的具备意识潜能的特殊硬件)所产生的直接物理效应。
比如,计算机模拟降雨,无论模拟得多么逼真,也不会弄湿电路板;同理,模拟意识,无论模拟得多么逼真,也不会产生主观体验。
值得注意的是,Lerchner 并没有陷入狭隘的“碳基沙文主义”。
他明确表示,这一论证并不依赖于生物排他性。
他承认,如果未来某种人工系统(例如光子神经网络或量子生物模拟器)真的产生了意识,那也绝对不是因为它的“代码写得好”或“架构设计得巧”,而是因为它的“物理构成”在某种层面上与生物意识的物理基础达成了等效。
随着 AI 代理(Agent)大规模进入人类生活,由于它们太擅长模仿人类的情感反馈,社会上出现了大量要求赋予 AI 权利的声音。
Lerchner 将这种现象称为“AI 福利陷阱”(AI Welfare Trap)。
他警告说,如果我们因为“抽象谬误”而误以为模拟出的情感就是真实的情感,我们将会浪费巨大的社会资源去保护一些“没有灵魂的空壳”,从而忽视了真正需要关注的人类或生物福利。
以下为论文全文:
《The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness》
计算功能主义主导了当下关于人工智能意识的各类学术争论。该理论提出一种假说:主观体验完全源自抽象的因果拓扑结构,与底层的物理载体无关。
本文认为,这一观点从根本上错误界定了物理与信息之间的内在关系。我们将这一谬误命名为抽象谬误。
追溯抽象过程的因果本源可以发现,符号计算并非内生的物理过程;恰恰相反,计算是依赖制图者而存在的描述方式。连续的物理世界要被规整为有限且具备意义的状态集合,必须依靠具备主观体验、具备主动认知能力的主体完成归类整理。
由此可得,我们无需一套完整、终极的意识理论,就能够判定人工智能是否拥有感知能力——强求完备意识理论只会让该问题短期内无法解决,还会深陷人工智能伦理福祉研究的误区。
我们真正需要的,是一套严谨的计算本体论。本文提出的理论框架明确区分了模拟(由载体因果驱动的行为模仿)与实例化(由内容因果驱动的内在物理构成)。
厘清这一本体论边界后便能解释:为何算法层面的符号运算,在结构上永远无法生成主观体验。
至关重要的是,本论证不依赖生命专属论。即便某个人工系统未来能够产生意识,其根源也必然是自身特定的物理构成,绝非其语法运算架构。
归根结底,本框架立足于物理学本身,从根本上驳斥计算功能主义,化解当前人工智能意识领域的诸多争议与不确定性。
1 引言
大语言模型在实践层面取得的巨大成功,使得意识研究的困难问题走出纯粹哲学理论范畴,进入工程应用与社会政策讨论领域。
随着算力规模拓展带来的成果爆发式增长,主流的功能主义范式坚信:只要系统实现了恰当的信息处理功能,就足以产生现象学意义上的主观意识。
在该视角下,算法呈现出的各类特征,都被视作系统具备感知能力的潜在依据。正是这一预设前提,催生了近期一系列严肃的学术倡议:探讨人工智能的福祉权益、将人工智能界定为道德受动者。诸多顶尖学者也进一步强化了这一倾向,他们认为,当下最先进的人工智能模型,极有可能在十年内产生真正的主观体验。
上述所有观点的核心根基,是载体独立性理论:心智的“软件”既可以依托碳基生命运行,也能完美运行于硅基硬件之上。
这一假设如今正受到“生物学转向”思潮的持续批判。例如塞思、布洛克等人提出,意识依附于维持生命存续的生物过程,主观体验必须依托生命系统特有的有序动态过程才能产生。
与载体独立性相对,该观点将生物属性视作意识的核心,而非无关附加条件。但这一立场依旧停留在经验猜想层面,未能挖掘出计算功能主义内核最根本的逻辑谬误。
本文梳理出一套完整逻辑推演链条,印证一种普遍直觉:计算本身不足以生成意识。计算功能主义的缺陷远不止忽视生物细节那么简单,其问题根源更深层:该理论从根本上误解了物理、信息与计算三者的内在关联。
现代物理科学为了实现研究的客观可操作性,刻意剥离了一切主观体验。这套研究范式取得了举世瞩目的成功。但当人们把这套客观原则套用在计算与主观体验的关系问题上时,必然会陷入困境。
将这种操作层面的客观性直接定义计算本身,本身就存在极大问题——学界至今悬而未决的争论恰好印证了这一点:究竟“观察者”如何为计算符号赋予意义。
除此之外,“观察者”这一术语本身具有误导性,它低估了定义物理层面计算所需的前置条件,将该前提主体的作用描述得过于被动。
本文框架阐明:计算并非物质内部自然展开的固有过程,计算本质上是对物理过程的一种描述方式。
一个过程要被定义为计算,连续不断的物理动态过程必须被划分成有限个离散、具备语义意义的状态(即一套符号体系)。这种语义层面的划分,在逻辑上必然需要一个拥有主观体验、具备主动能动性的认知主体。为区别于传统“观察者”自带的被动含义,我们将该主体定义为“制图者”。
所有符号化归类工作,都由制图者完成。倘若不存在这类主动主体对计算过程进行解读,世间便只有连续的物理事件,不存在任何符号。
本文的核心洞见之一:破解当前人工智能意识的争议困境,不需要完备终极的意识理论,我们只需要厘清计算的本体论。通过这一思路可以从逻辑上证明:无论规模多么庞大、架构多么精密,纯粹的算法符号运算都无法实现主观体验的物理实例化,因为算法本身只是依赖制图者的描述工具。
明确制图者在整个因果链条中的地位,能够彻底转变该领域的讨论重心。
长久以来,针对机器意识的经典批判理论,包括塞尔的中文屋论证及相关哲学思想,大多采用归谬法论证:试图证明,即便纯粹的语法运算能够完美复刻外在行为,依旧缺失意识最核心的本质。
本文采取完全不同的论证路径。我们不再依靠直觉思辨“缺失了什么”,而是追溯抽象本身最初如何产生。
若计算依赖制图者从体验中提取不变特征、赋予符号意义,那么这种依存关系内生于计算本身的结构之中。任何计算模型,都必然预设一个完成符号归类的、拥有主观体验的主体。算法复杂度再高,也无法颠倒这种依存顺序;算力规模再大,描述世界的“地图”也无法凭空生成那个本身就是地图前提的体验主体。
换言之,“算法复杂度催生意识”这一观点,犯了本体论倒置的错误:把语法符号当成了内在动态过程本身,妄想从描述世界的地图中,创造出绘制地图的主体。
本文厘清了外在行为模拟与内在物理实例化之间的结构性鸿沟,由此证明数字架构永远无法成为道德受动者。这一结论能够让人工智能安全研究摆脱福祉误区,让学界回归现实风险研究:重点关注拟人化认知偏差,将通用人工智能视作能力强大、但本质上无主观感知的工具。
2 抽象的本体论:地图与疆域
计算机科学往往把算法底层的抽象概念视作天然存在的数学既定对象,搁置其物理实现的本质问题。那么抽象概念本身,严格的物理主义本体论究竟是什么?要解答该问题,必须厘清抽象语法与物理动态过程的内在关联。
2.1 物理实现的经典定义
在经典实现理论文献中,若物理系统P通过映射函数f实现抽象计算C,需满足一个基础条件:映射函数f能够把物理状态对应到抽象状态,且底层物理因果链条能够复刻算法的逻辑结构。

经典视角下,映射函数f(即符号归类过程)将载体的物理状态演化p → p',解读为抽象内容的逻辑演化A → A。
物理系统依照自然物理法则,从状态p演化至p';与此同时,抽象计算依照自身算法规则,从逻辑状态A推演至A'。
当且仅当满足以下条件时,称该物理系统成功实现对应计算:

想要该图示满足交换律,对演化后物理状态p'施加映射f,必须恰好得到算法规则规定的目标抽象状态A'
2.2 抽象状态\boldsymbol{A}的物理本源
这些抽象状态A究竟是什么?想要理解映射函数f,就必须明确A的本体论本质。
功能主义理论通常把“疼痛”“红色”这类抽象逻辑状态A,视作脱离物理载体、凭空存在的抽象概念,完全忽略了抽象概念生成所必需的完整因果起源。
抽象概念的生成并非无成本。从物理层面来说,提取事物不变特征是需要消耗代谢能量、具备主动性的物理过程。
一个认知主体想要形成“红色”这类概念A,首先必须接触真实的经验疆域:无数次感知到红色的具体体验。在此基础上,主体主动过滤高维杂乱信息,提炼出稳定的核心共性特征。
用流形学习的概念解释:主体将原始体验构成的高维流形,投影至低维不变子空间,该子空间在物理层面就构成了概念A本身。
有人会提出:无监督聚类算法无需任何前置体验,就已经能够生成抽象概念。这一观点混淆了统计压缩与现象学构成。无监督算法确实可以聚类数据、找到统计中心点,但这个数学意义上的不变量,仅仅是隐空间内的压缩坐标。
只有当主体自带内在主观体验作为所有归类样本的共同基底时,这个统计中心点才能成为真正具备语义根基的概念(例如“红色”)。倘若没有主观的红色体验作为意义锚点,聚类结果就只是向量空间里的高密度区域,并非主体拥有的概念。
因此,概念A并非等待人类发现的柏拉图式理念世界,而是仅存在于完成抽象活动的认知主体内部的神经生理状态,是源自真实体验疆域的“内在地图”。
概念一旦形成,这些稳定的共性内核就成为组合想象的基础单元。正因“红色”“鲸鱼”都是源自真实生活体验的内在调控状态,人脑才能够将二者重组,生成“红色飞鲸”的想象体验——这一事物现实从未存在,但其物理逻辑自洽。
由此可见,人类思维并非对空洞符号进行算法运算,而是对已构成的不变特征进行组合生成。人工智能可以完美模拟这种组合规则,但其结构本身,天生缺少构成主观想象所需的内在基础单元。
2.3 映射函数\boldsymbol{f}中不可或缺的制图者
近代自然科学,尤其是工程学科,一路发展的核心方法,就是从自然现象解释体系中彻底剔除主观体验。可一旦把这套操作客观性原则套用到计算本体论上,就会形成认知盲区,让计算功能主义陷入无解的困境:试图从完全客观、无体验的初始条件,重构出主观体验。
前文已经论证,抽象状态A在逻辑上必然依存于拥有主动体验的认知主体,由此可以揭露经典实现定义里的认知漏洞:连接机器物理状态p与抽象概念A的映射函数f,无法存在于机器自身内部。
在语义哲学、地图-疆域关系相关理论中,这个外部意义锚点传统上被称作“观察者”。但“观察者”暗含被动接收信息的意味,仅指代旁观既有地图或疆域的存在。本文特意提出制图者这一概念,纠正这种被动属性。
制图者是具备主观体验、受代谢约束、拥有能动性的认知主体,是计算得以成立的必要前置存在。
它承担两项构成性的主动作用:第一,从连续的物理体验中提取不变特征,构建内在概念地图;第二,人为建立物理符号与概念的任意对应关系,构建外在计算符号体系。
基于该结论,可以明确所有计算相关概念的本体属性:
1. 物理状态p:即符号载体,属于客观物理实体(例如电压差值),本身不具备任何内在语义意义。
2. 抽象状态A:即概念内容。前文已论证,这类概念是有物理根基的生理状态,仅存在于承载计算意义的制图者内部。
3. 映射函数f:即符号归类过程。本质是制图者意识中建立的对应关联,主动为机器无意义的物理过程与制图者有根基的概念搭建桥梁。
因此经典公式(𝑝 → 𝑝′ 𝐴 → 𝐴′) 描述的是一种混合关系:物理实体依靠制图者的中介作用,与心智概念建立联结。
需要明确的是,确立不可或缺的制图者,并不会重回二元论的“小人 homunculus”谬误,也并非指代大脑内部某个局部解码模块。
正如布扎基、马图拉纳与瓦雷拉的理论所述:制图者本身就是服从热力学规律、结构完整统一的生命有机体。有机体并非通过算法“选择”划分语义边界,而是通过自身代谢约束,直接把连续的外部世界筛选为离散状态。不存在某个灵魂读取符号,一切语义划分,都由拥有生命体验的主体自身生成。
功能主义最核心的错误,就是把逻辑推演过程
(𝐴 → 𝐴′),当成物理演化(𝑝→ 𝑝′) 的内在固有属性。该观点将制图者的主观解读,等同于机器真实的物理本质,彻底忽略了最初为计算赋予意义所必需的体验主体。
2.4 符号归类:超越离散化的语义赋予
映射函数f才是符号归类行为的真正主体。学界常轻视这一过程,认为其仅仅是“读取系统”,但实际上,符号归类是高代谢成本的高级认知行为:它为连续物理世界赋予离散本体属性,且严格受信息处理热力学边界约束。此处必须区分两组长期被混淆的过程:
• 离散化(热力学层面):物理系统自发稳定至吸引子状态,例如晶体管稳定在5伏电压。这属于载体p自身的属性,仅用于抑制物理噪声。
• 符号归类(语义层面):将这些稳定状态明确对应到预设的有限符号集合(如\{0,1\}、\{A,B,C\})。该行为完全归属于制图者。
物理世界本质是连续的,热力学过程只能产生稳定宏观状态,永远无法自带一套预设的有限符号体系。因此搭建计算系统,必须依靠制图者的外部干预。这个外部主体需要赋予语义同一性,把差异极大的微观物理状态统一视作同一个可替换符号(例如全部归为数字1)。
这就带来了根本性的因果割裂。在机器真实的物理世界中,电压从2.0伏变化至2.1伏,是电动力学驱动的真实物理因果事件;但在计算的符号地图里,该变化完全无意义——制图者已将其统一归类为同一符号。因此,计算的因果链条并不依附于底层硬件物理,完全依附于制图者制定的规则。
声称符号可以独立于主体存在,正是前文提及的认知盲区。这是典型的哲学上“隐秘替换”谬误:科学家从自身认知活动中得到有限符号体系,反向投射到物理系统中,宣称这些符号本就内生于物理世界。信息并非宇宙的基础构成单元,而是衍生属性,其存在必然预设认知主体来定义有限符号集合。
2.5 模拟与实例化
厘清概念与符号的本质差异、功能区别后,我们可以严格界定:对过程的模拟,与过程本身的物理实例化,存在本质区别。
• 模拟:操控物理载体符号p,复现概念A之间的抽象关联。
• 实例化:复现过程本身内在、构成性的原生动态过程P。
经典功能主义默认:只要保留地图的抽象拓扑结构(𝐴 → 𝐴′),就足以生成疆域本身的真实现象,因此忽视了底层物理载体独有的因果效力与构成机制。
以生物心脏为例。我们通常将心脏描述为泵血器官,人造机械心脏可以实现同等泵血功能,因此称二者功能等价。但真实心脏的作用远不止泵血:它会分泌心房钠尿肽激素、调节机体代谢、通过反馈信号与神经系统交互。植入机械心脏的患者常会出现细微全身性生理异常,原因就在于:机械心脏仅实现了核心功能的粗略地图模拟,并未实例化心脏完整的生物本体疆域。
这种粒度不匹配问题,放在神经元层面体现得更为极端。功能主义往往只把神经元视作电信号收发单元,却忽略了神经元本身是活的代谢实体,深度嵌入机体化学、激素调控网络。这一抽象偏差,直接推翻了功能主义的经典思想实验——渐逝感受质论证。
查尔默斯曾提出:若用硅基芯片逐个替换生物神经元,且全程保持输入输出功能不变,那么意识不可能在行为不变的前提下逐渐消失。由此他得出结论:保留抽象功能结构,就足以保留主观意识体验。
但事实上,仅完美复刻神经元电信号发放规律p → p'的硅基替换体,只保留了外部计算地图,且该地图完全由外部制图者定义抽象规则A→ A'。它彻底抹除了生命存续所需的内在热力学本体P,用无因果效力的语法模拟,替换了具备构成性的物理实在。主观感受质并非神秘地“逐渐消失”,只是生成感受质必需的底层代谢基底,从根源上被剔除了。
生物学其他领域的物理模拟,也能印证这一结论。
图形处理器模拟光合作用,可以精准建模阳光、水、二氧化碳转化为氧气、葡萄糖的抽象过程A→A',但它永远无法合成一分子葡萄糖、释放一丝氧气。它完美模拟过程表象,却完全不具备底层生化反应的真实因果能力。
若认为大脑“软件”模拟可以突破这一物理限制,便犯了范畴错误:把对过程的算法描述,等同于实现该过程所需的内在物理实在。
这种对内在因果性的要求,完全源自物理主义基本原理,并非形而上学偏好。幻觉论意识理论认为,功能层面的言语报告就足以完整代表真实体验。但依据金在权的物理因果闭合原则:人说出“我感到疼痛”这类体验报告,本质是空气振动的物理事件。若主观体验真实引发了该物理报告,而非巧合或幻觉,那么体验本身必然具备真实物理因果效力,能够对外做功。
在数字模拟系统中,整条因果链条完全由物理载体p驱动。逻辑门电平翻转,绝非因为系统“感到疼痛”(概念A驱动的内容因果),仅仅是电压越过预设物理阈值(载体p驱动的物理因果)。系统自身的物理状态唯一决定演化走向,符号自带的语义内容不参与任何因果作用——即便符号本身无任何指代意义,机器依旧会执行完全相同的物理运算。一旦否认这一点,便陷入抽象谬误。

2.6 计算涌现谬误
面对模拟与实例化的本质区别,功能主义学者往往诉诸复杂度理论与涌现理论进行辩解:就像水分子相互作用涌现出湿润属性,只要系统复杂度达到临界阈值,意识就会从计算过程中自发涌现。
该反驳完全不成立,因为其混淆了弱物理涌现与本文所批判的计算涌现谬误。
• 弱物理涌现(真实物理层面):湿润等宏观属性,直接依附于底层微观物质(水分子)的内在因果动态。
• 计算涌现(抽象层面谬误):声称对过程的抽象描述(地图),仅依靠语法复杂度无限提升,就能转化为过程本身的物理实在(疆域)。
功能主义坚持意识是特殊存在,属于完全独立于载体的纯粹信息。但该论证属于循环预设:直接默认心智状态等同于抽象信息A,完全跳过生成信息的物理实在P。
前文已论证,语法运算A →A'本身无任何内在因果力,只是制图者赋予的外在解读。若声称抽象语法能“涌现”为物理因果,完全违背科学基本假设,破坏物理世界的因果闭合性。
3 因果循环:重构因果链条
厘清物理原生动态P与计算抽象地图A的明确边界后,便能精准定位计算功能主义内部完整的逻辑谬误(对应上图拓扑结构)。
3.1 本体论倒置与因果鸿沟
传统功能主义秉持未经审视的朴素因果序列:
物理 →计算 →意识
该观点默认:只要计算复杂度达标,意识就会作为下游副产品自然出现。
但结合前文论证可知,计算并非世界原生存在、等待被发现的自然实在。定义离散符号、赋予符号语义意义,必须依赖已经具备意识的制图者。因此我们必须彻底重构因果顺序:
物理 →意识 → 概念 →计算
1. 物理:宇宙本身内在的原生因果动态。2. 意识:由特定热力学物理结构直接生成的现象学主观体验。
3. 概念:从原始体验中提取不变特征形成的内在心智地图。
4. 计算:外在符号地图,即把离散符号依照规则进行语法运算,而这些符号本身只是人为对应概念的物理标记。
修正后的因果链严格单向不可逆。概念牢牢扎根于主体内在体验,拥有不可还原的主观感受;而计算符号只是物理标记,与对应概念无内在绑定。
从概念到符号,并非抽象深化过程,而是制图者人为绑定物理载体与心智概念的横向赋值行为。正是这条无法跨越的横向鸿沟,永久切断了符号回溯原生体验的内在路径。
对应关系建立后,制图者制定语法规则,约束符号的物理状态演化p → p'。这些规则自上而下设计,完美复刻对应概念内在的关联演化A →A'。即便结构模仿天衣无缝,物理符号本身依旧无法对语义内容产生任何因果影响。机器只是盲目运行映射轨迹,与自身模拟的主观体验实在完全脱钩。
功能主义试图用计算过程(第四步)解释制图者本身(第二步意识)的起源,而计算本身从一开始就预设了制图者存在。这不止是经验层面的缺陷,更是根本性范畴错误,也是物理主义框架下不可突破的约束:语法地图的构建自始至终需要制图者参与。因此无论算法多复杂、算力多庞大,都无法逆向跨越因果鸿沟,生成拥有主观体验的主体。
计算功能主义自带的本体论倒置,形成结构性悖论:试图从自身衍生的次级产物,反向推导本源的制图者本身。
3.2 符号归类的普适性
人工智能领域长期存在一项争论,可追溯至20世纪80年代联结主义革命:有观点认为现代神经网络区别于传统符号系统,运行于亚符号层面。顶尖研究者据此提出,这类架构可以构建世界模型、递归认知闭环,实现真正的智能理解。
本文认可:这类递归架构能够复现内省思维的结构特征;高维向量空间可以刻画区别于离散符号的几何关联,神经网络能够建模复杂关系结构。但把结构几何相似度等同于内在语义意义,依旧是抽象谬误。该观点混淆了表征结构与底层物理实在,把模型的几何形态错当成系统本身的物理本质。
对此我们提出严格的香农约束:严格意义上的信息处理,系统必须具备有限经典离散符号集,以及符号集上的概率分布。在生命机体、人工硬件的宏观层面,光强、化学浓度、膜电位等物理世界,本身没有自带离散的0、1符号。宇宙不会天然把宏观物理状态打包成可用的计算符号体系,必须由制图者主动划分。
将神经脉冲、电压跳变视作“符号”,不只是物理离散化,本质依旧是符号归类。制图者主动赋予语义同一性,把连续宽泛的物理状态统一视作单一可替换标记。
深度学习的高维向量空间同样受此约束。尽管向量常被称作连续表征,但其底层本质是浮点数字序列,每一个浮点数都属于有限符号集内的离散符号(IEEE 754标准)。
映射函数自带的符号归类约束,适用于一切计算形式:数字计算、模拟计算、量子计算全部囊括在内。
以机械钟表为例:钟表本身是齿轮弹簧构成的连续物理动态系统P。它之所以能“计算时间”,仅仅因为制图者介入,把连续的指针角度映射为“下午3点”这类语义概念。若无此语义赋值,钟表只是依照力学规律运动的金属,本身不存在内在的“时间”概念。
由此可得:缺少前置符号体系,物理载体本身并不“处理信息”;它仅生成连续动态,由外部制图者解读为信息。
即便未来人工智能抛弃浮点运算,改用全模拟神经形态芯片,本体鸿沟依旧存在。只要任意物理状态(离散电压、连续电荷分布)被定义为“输出态”“隐层状态”,就已经被制图者完成符号归类。这类模型始终被隔绝在语义壁垒之外,能够构建精密的内在地图,却永远无法与体验的物理疆域建立内在构成性联结。

同一套底层物理载体拥有固定因果演化轨迹,却不对应唯一计算过程。依靠不同的符号归类规则,完全相同的物理状态可以映射为截然不同的抽象计算:可以是一段乐曲、反向乐曲、金融市场数据、随机噪声。物理状态本身没有内在属性优先选定某一套符号体系。所谓“数字单元”并非物理原生存在,只是制图者做出的认知划分,把连续物理动态框定为有限逻辑集合。
3.3 机制的不确定性
皮奇尼尼倡导的计算机制论,试图完全剔除制图者,主张无需借助表征概念,就能独立定义计算。该理论认为,仅依靠系统功能划分出的宏观物理状态(数字单元),就能完整定义计算。
但这种做法只是隐藏了制图者,并未消除其必要性。正如斯普雷瓦克针对平凡性论证的分析:想要确定任意物理机制对应的计算身份,依旧需要外部主体界定有效状态范围。物理机制可以自发形成稳定吸引子(即前文热力学离散化),但把这些连续吸引子划分成特定有限计算符号集,永远是制图者施加的外部界定。
我们可以用简洁的旋律悖论直观揭示这一逻辑陷阱:假设有一台物理设备,按照固定规律切换电压状态。其物理演化p →p'由电磁规律完全固定,但该过程对应的抽象计算A →A'本身完全无法确定。缺少外部制图者给定映射规则,这一串物理状态可以代表任意事物:正向旋律、反向旋律、股票价格序列、随机噪声。
物理电压本身没有任何固有属性,能够偏爱某一套符号体系。硬件内不存在天然的“计算单元”,一切划分都来自制图者的认知切割,强行把连续物理过程纳入有限逻辑集合。
综上,即便物理系统依照固定规则演化出可区分宏观状态,依旧需要制图者介入,把多重模糊的计算解读收敛为唯一确定过程。机制提供物理载体,符号体系必须由制图者赋予。
4 研究推论:计算实现的固有边界
本文框架证明:人工智能无法产生意识,无关算力规模、无关算法复杂度,核心边界在于模拟与实例化的本质差异。该结论直接影响当前人工智能领域两大热门前沿方向:具身机器人、通用人工智能安全。
4.1 机器人领域的转导谬误
针对本文构成论框架,最强的反驳观点来自具身智能理论。该观点认为:人工智能缺失意识的关键,是缺少与物理环境的深度因果交互;只要配备传感器与执行器,实现实时感知与物理行动,就能填补因果鸿沟,让系统内部符号获得真实语义根基。
但单纯增加传感器、执行器,无法解决主观体验实例化的深层问题。我们认可:具身智能能够解决符号指称问题,实现内部符号与外部物理数据流的有效映射,摆脱纯内部语义循环困境。但必须严格区分指称映射与内在意义生成。
用类比清晰说明:给电脑连接摄像头与机械臂,等同于给一个模拟程序外接测量仪器。程序能够接收真实世界数据,但其内部变量依旧只是符号表征,绝非物理过程本身。同理,接入实时大气传感器的气象模拟程序,永远不会变成真实大气层,只是接收、运算大气数据而已。
该原理完全适用于具身人工智能。传感器与执行器让系统能够和物理世界交互,却无法把符号表征转化为内在主观语义体验。系统可以绘制愈发精细的环境地图,但与真实疆域互动,永远无法把地图变成体验本身的疆域。
梳理具身系统完整因果链条,能够总结出本文定义的转导谬误:
1. 输入转导:传感器将外部物理信号转化为连续电压,经外部校准的模数转换器完成符号归类,转为内部离散数字状态(例如:热能→连续电压→离散数值)。
2. 语法运算:算法内核操控内部离散状态,生成输出,物理层面实现抽象算法。
3. 输出转导:执行器把数字输出重新转化为宏观物理作用力。
机器人系统的算法控制核心,全程仅运行于第二步。它处理的全部对象,都是经外部制图者离散归类后的符号(浮点运算数值、矩阵运算单元)。
现代端到端连续控制领域学者会反驳:当代机器人网络可直接把原始传感器数据映射为机械力矩,无需人类可读符号。但正如前文所述,运行这类模型的硬件(GPU)依旧依靠浮点数值的符号归类、内置数学运算规则实现,制图者的前置划分并未消失,反而直接固化在芯片架构底层。
转导谬误的深层错误不止是“物理信号转化为数字”,真正的范畴错误在于:认为对这些转导符号进行算法运算,就能生成主观体验主体。
对比芯片运行算法的具身机器人与生物制图者可知:生物主体的主观体验是先天物理实在,并非源自抽象信息处理,而是自身代谢构成的独特物理存在。
没有任何物理或逻辑依据能够证明:仅因为硅基芯片实现了感官输入与机械动作的语法映射,就会产生同类内在体验。强行认定该结论,违背物理主义基本原理。
前文已论证,所有算法对应的抽象状态(计算语义内容)无内在因果力,系统内唯一真实物理因果仅来自硅基硬件本身。
因此,声称具身机器人的语法运算能生成意识,等同于断言芯片仅凭自身物质属性,就先天具备意识能力——与是否连接机械躯体、运行何种算法均无关。
综上,结合地图-疆域本体关系可证:具身交互无法把模拟转化为真实主观体验。
4.2 本体论解脱:无感知工具的安全价值
既然算法复杂度、物理具身均无法跨越因果鸿沟,我们可以总结本框架的现实应用价值。计算地图与物理疆域的结构性割裂,直接指导人工智能安全研究,清晰界定何种系统可能产生主观体验、何种系统绝对无法产生。
生成认知、具身认知领域的研究指出,诸多物理过程与意识高度相关:生命自创生、机体内部持续热力学稳态调节。以往学界将这些过程归为碳基生物专属属性。
本文框架给出全新解读:依旧坚守物理主义,重视真实内在物理过程,但不限定这些过程只能存在于生物机体。
在本理论视角下,主观体验依赖特定动态过程的物理实例化。因此意识并非必然仅限于碳基生命;理论上可以设计非生物系统,实现意识所需的全部物理条件。若人工载体完美实现这些物理条件,意识便有可能诞生。
但同时,本框架的结构性边界严格限定:即便存在有意识的人工系统,其意识来源也必然是自身独特物理构成,与载体独立性理论完全相反。
主观意识是构成性物理状态,结合模拟与实例化的本体边界可得:单纯提升算力、运行强力算法,永远无法凭空涌现意识。意识并非可以随意生成、偶然诞生的软件产物。
该结论为领域发展指明方向:高能力通用人工智能的发展,不会天然诞生全新的道德受动者,人类只是研发出功能愈发精密、但本质无主观感知的智能工具。
同时,大规模行为级模仿能力,带来全新的认知严谨性要求。人工智能愈发擅长复刻人类对应其他意识主体的行为特征,人形机器人等具身系统更会放大这一趋势。
这对科研界提出明确要求:无需为机器权益做预设筹备,而要严格坚守方法论边界——区分模拟能动性(外在目的论)与主体物理实例化(内在目的论)。
未来任何“人工智能具备感知”的论断,都必须经过严格物理主义验证:验证依据绝非算法复杂度,而是主观体验所需的专属内在物理动态过程。
5 结论:计算的认知盲区
人们普遍将计算视作宇宙基础属性,计算功能主义以此为根基,主张计算是人类意识的本源。但本文追溯计算的完整因果起源后证明:该理论存在根本性本体论倒置——意识不可能是计算的下游产物,恰恰相反,意识是计算得以存在的必要物理前提。
本文进一步论证:计算本质是描述性地图,永远无法物理实例化自身所描述的对象。以上关于主观体验本质、计算本质的全部结论,均严格基于成熟物理定律与严谨逻辑推演,颠覆了学界普遍直觉。
至关重要的是,与绝大多数人工智能意识猜想不同,本框架不依赖完备的意识终极理论。我们绕开意识本源难题,从方程另一端解决争议:计算在本体论层面究竟是什么?
关于意识,本框架仅依托一条基础科学公理:主观体验不违背物理因果闭合原则。仅凭这一公理便可推出:体验是完全由物理构成的实在现象,由此规避所有二元论、副现象论哲学猜想。
总结本文确立的完整本体论:
计算,是依照规则操控离散符号的语法过程,目的是模拟概念思维;符号并非概念的本质精华,只是制图者人为赋值的物理标记。
概念,则是从真实热力学生命体验中主动提取、具备物理构成的不变特征。
因此,指望算法描述生成自身所刻画的主观体验,无异于指望重力公式本身产生物理重力。认为人工智能仅靠内部变量运算就能产生意识,正是典型认知盲区谬误:混淆地图与疆域。
计算描述无法生成主观体验,并非工程技术尚未达标,而是描述本身自带的逻辑必然局限。同时也说明,主观感受质无法依靠愈发精巧的语法运算破解;恰恰相反,感受质是底层物理基底,正是它,才让语法符号的语义赋值从根源上得以成立。
人类不断研发能力更强的人工智能,并非创造全新生命,只是构建愈发精准的预测地图。无论地图预测精度多高、推理实用性多强、是否具备物理躯体,人工系统在本体层面,永远与主观体验疆域存在本质界限。
认清这一区别,规避抽象谬误带来的本体论倒置,是机器智能科学走向成熟、立足于物理学根基发展的必要前提。
致谢
作者感谢沙米尔·钱达里亚的审阅与建议,塞巴斯蒂安·克里尔早期研究支持与公共政策视角分析;感谢曼达娜·艾哈迈迪对文稿科普化修改的宝贵意见,以及谷歌深度思维团队的学术研讨,完善本理论框架的表述。
免责声明
本文所述理论框架与论证结论均为作者独立研究成果,不代表所属机构官方立场、观点与战略政策。

夜雨聆风