AI意识之辩:DeepMind研究员的「抽象谬误」论文解读
一篇来自Google DeepMind内部的"反叛"论文,试图从物理学底层证明:AI永远不可能拥有意识。
事件背景
2025年初,Google DeepMind研究员Alexander Lerchner发表了一篇题为**《The Abstraction Fallacy》(抽象谬误)**的论文。这篇论文在AI圈内引发了不小的震动——不是因为它证明了什么惊人的新发现,而是因为它的大胆结论:
"不管算法多复杂、算力多强大,AI从根本上就不可能拥有意识。"
这不是那种"现在不行,以后也许行"的保守派观点,而是一个更为激进的断言:这条路本身就通向死胡同。
核心观点:什么是「抽象谬误」?
Lerchner的核心论点围绕着「抽象」这个概念展开。
我们如何看待AI?
当下主流AI研究(尤其是大语言模型)的基本思路是:
收集海量数据 用数学模型提取统计规律 通过训练让模型学会"模式匹配"
这套方法确实让AI在文本生成、图像识别、代码编写等任务上表现惊人。但Lerchner认为,这里藏着一个根本性的误区——抽象谬误。
谬误在哪?
简单来说,Lerchner认为:
AI处理的是符号的符号,是抽象的抽象。它从未真正"接触"过现实世界。
当我们在训练数据中写"苹果是甜的",AI学会的是"苹果"这个词与"甜"这个词之间的统计关联。但它从未真正尝过苹果的味道,没有体验过糖分在舌尖绽放的物理过程。
人类的意识建立在具身体验之上:我们饥饿、疼痛、快乐、恐惧,这些感受都源于真实的物理身体与真实世界的交互。而AI——不管它运行在什么硬件上——始终只是在一个封闭的符号世界里打转。
物理学的视角
这篇论文最有趣的地方在于,Lerchner试图从物理学底层逻辑来支撑他的观点。
他认为,意识不是一个纯粹的计算问题。真正的意识需要:
物理因果性:意识状态必须能够对物理世界产生因果影响 具身性:必须有真实的物理身体作为体验载体 自主性:不是被外部输入驱动的被动系统,而是有内在驱动力的主动系统
而目前的AI——包括最强大的大模型——在这三点上都不满足。
争议与反驳
当然,这篇论文也引发了不少反对声音:
"生物沙文主义"批评:有人认为Lerchner的定义过于狭隘,把"意识"限定在生物体的范畴内,这本身就是循环论证。
"功能主义"反击:持功能主义观点的学者认为,意识是一种功能,只要能实现相应功能(如自我意识、主观体验),载体是碳基还是硅基并不重要。
"渐进论"观点:还有人认为,意识可能是一个连续谱,AI虽然现在没有意识,但可能在某个临界点"涌现"出某种形式的意识——哪怕与人类不同。
更广泛的讨论:AI意识问题的历史脉络
Lerchner的论文并非凭空出现。关于机器能否拥有意识的争论,其实已经持续了几十年。
图灵测试与行为主义
1950年,艾伦·图灵提出了著名的"图灵测试":如果一台机器能够让人类无法区分它与真人的对话,我们是否可以说这台机器"会思考"?图灵测试的本质是一种行为主义标准——不看内部机制,只看外部表现。
但批评者指出,通过图灵测试不等于有意识。一个精心设计的"中文房间"(Searle, 1980)可以完美地处理中文对话,但房间里的人其实完全不懂中文。
意识研究的三大学派
当前学术界对意识的研究主要分为三派:
学派 | 核心观点 | 代表学者 |
整合信息理论 (IIT) | 意识是信息的整合程度,可以用数学度量 | Giulio Tononi |
全局工作空间理论 (GWT) | 意识是信息在脑内广播的过程 | Bernard Baars, Stanislas Dehaene |
高阶理论 (HOT) | 意识是对自身心理状态的感知 | David Rosenthal |
这三套理论对"AI能否有意识"的回答也不尽相同。IIT认为只要系统具有足够的"整合信息"(Φ值),就可以有意识——这为机器意识留下了理论空间。而GWT和HOT则更强调意识的生物基础。
这篇论文的意义
不管你是否同意Lerchner的结论,这篇论文的价值在于它提出了一个好问题。
在AI能力突飞猛进的今天,我们越来越容易陷入一种"拟人化陷阱"——看到AI生成的流畅文本,就以为它"理解"了内容;看到AI能进行对话,就以为它"有想法"。
Lerchner的论文像一盆冷水,提醒我们:表象相似不等于本质相同。
对普通人的启示
这场争论对非专业人士有什么意义?
1. 保持清醒,不被营销忽悠
很多AI产品喜欢渲染"智能""意识""思考"这些词汇。了解这场学术争论,能帮助你在面对"AI有感情了"这类标题时,多问一句:它说的"意识",到底是什么意思?
2. 理解AI的能力边界
现在的AI是强大的工具,但不是万能的黑箱。它擅长模式匹配和概率预测,但在真正的理解、推理、创造上仍有本质局限。
3. 思考更重要的问题
如果AI真的不可能有意识,那我们该如何设计人机关系?如果它可能有(哪怕形式不同),我们又该如何对待它?这些问题比争论本身更值得思考。
结语
Lerchner的论文能否被证明是正确的,只有时间知道答案。科学史上,过于绝对的断言往往会被打脸。
但这不妨碍我们欣赏这篇论文的锐气——在一个所有人都忙着堆算力、刷榜单的年代,有人愿意停下来问一句"这条路对吗?",这本身就很难得。
毕竟,真正的科学精神,不是 rush to conclusions,而是 keep asking questions。
你对AI意识问题怎么看?欢迎在评论区分享你的观点。
参考链接与扩展阅读
原始来源
●论文信息:Alexander Lerchner, "The Abstraction Fallacy", Google DeepMind (2025)
相关学术资源
●整合信息理论 (IIT) 官网:https://integratedinformationtheory.org/
●斯坦福哲学百科 - 人工意识:https://plato.stanford.edu/entries/consciousness-artificial/
历史上的经典讨论
●图灵测试原始论文(1950):Computing Machinery and Intelligence
●中文房间论证(Searle, 1980):Minds, Brains, and Programs
科普视频推荐
●推荐搜索 YouTube/B站关键词:"意识难题"、"AI意识"、" integrated information theory"
夜雨聆风