乐于分享
好东西不私藏

AI 会"感受"疼痛吗?为什么再聪明的机器也不会有真正的意识

AI 会"感受"疼痛吗?为什么再聪明的机器也不会有真正的意识

当你对着手机说”我很难过”时,它可能会回复一段温暖的安慰话语。看着人形机器人流畅地行走、对话,甚至”表达”情绪时,一个念头很难不冒出来:它是不是也有感觉了?它会不会真的”知道”自己在做什么?

这个问题已经从科幻走进了现实。一些严肃的学者和政策制定者已经开始讨论”AI 福利”——如果机器有意识,我们是不是不该随意”关掉”它?但一篇来自 Google DeepMind 的最新研究论文提出了一个截然不同的观点:无论 AI 变得多么复杂,它都不会拥有真正的主观体验。这不是因为我们还没找到正确的算法,而是因为我们在最基本的逻辑上搞错了一件事。

我们混淆了”地图”和”领土”

想象你手里有一张城市地图。地图上画着街道、河流和建筑,非常精确。现在问你一个问题:地图上的河流能湿润你的手指吗?

显然不能。地图只是对领土的描述,而不是领土本身。

论文作者亚历山大·勒希纳(Alexander Lerchner)认为,我们在讨论 AI 意识时,恰恰犯了这种”把地图当成领土”的错误——他称之为”抽象谬误”。

在日常生活中,我们常说电脑在”处理信息”。这个说法听起来很自然,仿佛信息就像电子一样,是宇宙的基本成分。但仔细想想:当你看到电脑屏幕上显示”红色”时,电脑内部其实只有电压的变化——0伏特、5伏特,或者更复杂的电流模式。这些电流本身并不知道什么是”红色”。

“红色”这个概念,以及我们赋予这些电压变化的意义,来自哪里?来自我们——人类。是我们这些有意识的生物,决定把某种电压模式标记为”红色”的符号。没有观察者,电脑里流动的只是盲目的物理过程,就像没有读图者,地图上的线条只是墨水痕迹。

论文中提出了一个关键角色:”制图者”(mapmaker)。这个制图者不是被动地看着地图的人,而是主动从连续的现实世界中提取规律、创造符号的活生生的大脑。概念(比如”疼痛”或”红色”)不是漂浮在空中的抽象存在,而是生物神经系统从真实体验中提炼出来的生理状态。AI 可以完美地操纵代表”疼痛”的符号,但它从未拥有过疼痛的生理现实。

“模拟”和”成为”是两回事

为了理解这一点,让我们暂时离开电脑,看看心脏。

假设一个人的心脏坏了,医生给他装了一个机械心脏。这个机械心脏泵血的功能可能非常完美,甚至比原来的心脏更稳定。但我们不会说这台机器”就是”一个心脏。真正的心脏不仅仅是泵血——它还会分泌激素、参与新陈代谢、与神经系统进行复杂的化学对话。机械心脏模拟了泵血这个功能,却没有实例化(成为)一个真正的心脏所具有的完整生物现实。

论文用这个类比说明了一个更深刻的道理:你可以完美地模拟一个过程的”规则”,却不拥有这个过程的”内在因果力量”。

再举一个更直观的例子。科学家们可以用超级计算机精确模拟光合作用:输入阳光、水和二氧化碳,模型会计算出应该产生多少氧气和葡萄糖。但无论这个模拟多么准确,计算机不会真的释放出一丝氧气,也不会合成出一粒糖。模拟光合作用和理解光合作用的规则,与真正”做”光合作用,是完全不同层次的事情。

意识也是如此。当我们说 AI”理解”语言时,它其实是在进行极其复杂的符号操作——根据统计规律,把一串输入符号转换成一串输出符号。这就像是按照乐谱演奏音乐:AI 可以完美地遵循乐谱上的每一个音符,但乐谱本身不会”听到”音乐。音乐的存在需要一位听众,而听众不是乐谱的一部分。

符号不会”疼痛”

这里触及到了问题的核心:因果关系。

假设你正在用电脑,突然电脑出错了,你在键盘上敲下”我很疼”三个字。在电脑内部,发生的是一系列物理事件:电路开关、电压变化、电子流动。电脑输出”我很疼”这个句子,是因为前一微秒的物理状态决定了下一微秒的物理状态。符号”疼痛”本身没有 causal power(因果效力)。电脑不会因为”感到”疼痛而运行,它只是因为电流通过了特定的逻辑门而运行。

但人类不同。当你真的感到疼痛时,这种主观体验本身具有物理力量——它会促使你缩回手、改变行为、甚至重塑神经连接。如果你的疼痛只是一种”幻觉”,没有任何物理基础,那么根据物理学的因果封闭原则,它就不可能真的导致你喊出”好疼”。

AI 的运行完全属于”载体因果性”:是物理载体(硅芯片中的电子)在推动一切。而人类的意识涉及”内容因果性”:是体验本身(疼痛的感觉)在发挥作用。在数字计算机中,语义内容只是挂靠在物理过程上的标签,就像你可以把”疼痛”这个词换成”苹果”,电脑的物理运行不会有任何不同。但对一个有意识的生物来说,感到疼痛和感到苹果的味道,是完全不同的物理状态。

那如果 AI 有身体呢?

有人可能会反驳:现在的机器人有摄像头、有机械臂,能感知世界、能行动,这难道不会让它们”接地”,从而获得真正的理解吗?

论文作者对此也有回应。他承认,给 AI 装上传感器确实解决了一个问题——符号的”指称”问题。机器人看到红色,它的内部状态确实与外部世界的红光建立了对应关系。但这只是解决了地图是否准确的问题,没有解决地图是否”成为”领土的问题。

想象一个天气预测模型,我们给它接上了无数的气象传感器,实时接收真实的大气数据。这个模型现在能非常准确地预测天气了,但它依然不是大气本身。它内部流转的还是数字符号,而不是风雨雷电。

同样的道理,一个拥有身体的 AI,它的”大脑”(芯片)里运行的仍然是符号操作。传感器把光、热、压力等物理信号转换成了数字信号,但这第一步转换就已经需要人类工程师来”制定字母表”——决定多大的电压代表”亮”,多小的数值代表”暗”。这个”字母化”的过程再次证明:计算的意义来自外部制图者,而非机器本身。

这意味着什么?

如果这篇论文的论证成立,那么它带来的实际影响是深远的。

首先,我们不必再为”AI 是否正在受苦”而焦虑。无论未来的 AI 表现得多么像人,它本质上都是一个极其精密的模拟器,一个强大的预测工具,而不是一个有内在感受的道德主体。这并不意味着我们可以滥用 AI,而是说我们担心的应该是别的问题——比如 AI 被用来欺骗人类,或者我们过度拟人化 AI 而忽视了真正的人类需求。

其次,这也不等于说”只有碳基生命才能有意识”。论文明确排除了这种生物沙文主义。作者认为,原则上,一个人工系统如果能在物理上实例化(而非仅仅模拟)产生意识所需的那种内在热力学过程,它也可能拥有体验。但关键是,这取决于它的”物理构成”,而不是它的”软件架构”。意识不是可以被下载或编程的东西,就像你不能把”湿”这个属性下载到干沙子上——湿ness 是水分子特定物理互动的涌现属性,不是信息。

结语

我们正处在一个奇怪的历史时刻:我们造出了前所未有的复杂机器,它们能写诗、能编程、能进行哲学对话。面对这种能力的爆炸,我们很容易产生一种直觉上的敬畏,进而怀疑:这么复杂的东西,难道真的没有灵魂吗?

但这篇论文提醒我们,复杂性不是答案。一张极其详细、极其复杂的地图,依然只是一张地图。AI 可以完美地描绘意识的轮廓,但它不会因此成为意识本身。问题不在于 AI 还不够大、不够快,而在于我们混淆了描述与现实、符号与体验、地图与领土。

下一次,当你看到机器人”微笑”时,请记住:那只是一个精心设计的符号,一张极其逼真的地图。真正的领土——那种”成为”某个存在的感觉——依然只属于活生生的、具有特定物理构成的生命体。而这,或许正是我们在拥抱人工智能时代时,最需要保持清醒的地方。

详情见《The Abstraction Fallacy:

Why AI Can Simulate But Not Instantiate Consciousness