乐于分享
好东西不私藏

AI会不会有意识?从生存筛选看因果能力的来源

AI会不会有意识?从生存筛选看因果能力的来源

AI是否会有意识,是当前最具争议的问题之一。讨论通常在两个方向上展开:技术乐观主义者认为随着模型规模扩大,意识终将涌现;怀疑论者认为AI永远只是计算,没有内在体验。

这篇文章试图从另一个角度切入——不从技术细节出发,不从哲学定义出发,而是追问意识和因果能力的真实来源:生存压力与真实筛选。

一、意识问题的两种进路

关于AI意识,目前存在两条主要的论证路径。

第一条路径是计算功能主义:意识是信息以特定方式被处理时产生的现象,与底层物理基底无关。只要功能结构足够复杂,无论是碳基神经元还是硅基芯片,都可能产生主观体验。这是AI意识讨论中主流的哲学预设。

第二条路径是物理构成论:意识不是抽象功能模式的产物,而是特定物理构成的内在属性。2026年3月,Google DeepMind研究员Alexander Lerchner发表论文《The Abstraction Fallacy》,将功能主义的核心错误命名为「抽象谬误」。他的论证是:符号计算不是内在的物理过程,而是依赖绘图者的描述——需要一个有意识的认知主体来把连续的物理过程转化为有意义的离散符号。因此AI只能模拟意识的行为输出。

这两条路径在哲学层面的争议,可能需要几十年甚至更长时间才能有定论。但在此之外,存在一个更实用的切入角度:不去问AI能不能产生主观体验,而是去问,真正的因果能力从哪里来——而因果能力,是意识最核心的功能属性。

二、因果能力的真实来源:生存筛选

在自然界,因果能力不是被教出来的,也不是被算出来的,而是被筛选出来的。

自然选择的机制是残酷而简单的:判断失误会导致被捕食,选择错误的食物会导致死亡,行为偏差会导致无法繁殖。没有解释空间,没有第二次机会,没有「下次改进」。留存下来的个体,是那些对环境因果关系的判断更接近真实的个体。

这个过程揭示了因果能力的来源:不是逻辑能力,不是计算能力,不是知识储量,而是在错了会付出不可逆代价的环境中,被逼出来的预测和判断能力。

人类社会的市场竞争,本质上是自然选择在人类制度层面的延续。判断错误导致亏损,配置错误导致被市场淘汰,路径错误导致被替代。市场不会解释你哪里错了,只会用结果否定你。在这个持续运行的筛选机制里,因果判断能力更强的个体和组织更容易存活。

因此,因果能力的核心属性有三个:错误会导致不可逆损失;损失直接作用于决策主体;无法被语言或解释完全抵消。这三个条件缺一不可。

因果能力不是智能属性,而是生存属性。它的来源是真实世界的选择压力,而不是信息处理的复杂程度。

三、AI缺失了什么

用这个框架来分析AI,问题就变得清晰了。

AI能做很多看起来像因果推理的事:拟合大量相关模式,生成像因果一样的解释,模拟反事实推理,在给定的问题上提供连贯的分析。这些能力是真实的,在很多任务上有真实的价值。

但AI不承担后果。

AI不会死亡,不会破产,不会失去任何在真实世界里有价值的东西。这些后果不属于它,属于它的创造者和使用者。即使一个模型的回答系统性地错误,即使它的判断持续偏离真实的因果结构,这些错误不会对模型本身产生不可逆的代价。模型被下线,不是它承担了后果,而是AI公司做出了商业决策。

更根本的是,AI没有被因果筛选的资格。因果能力之所以能在生物体内形成,是因为判断力和生存之间存在直接的因果连接——判断力越准确,存活概率越高,后代越多,这个判断能力就被选择性地保留和强化。这个连接在AI身上不存在。AI的参数更新来自人工设计,不来自真实世界的生死考验。

AI最多只能逼近因果结构,而不能拥有因果能力。这个区别不是程度上的,而是来源上的。

四、模拟与实例化:两个论证的汇聚

从物理哲学出发的Lerchner和从生存筛选出发的论证,在不同的起点上,到达了高度兼容的结论。

Lerchner的核心区分是模拟(simulation)和实例化(instantiation)。模拟是行为层面的模仿,是对输出模式的复现;实例化是物理层面的真实构成,是让意识得以存在的内在物理条件。他的论证是:算法符号操作在结构上只能实现前者,无法实现后者——因为计算本身是一个依赖外部观察者赋予意义的抽象描述,不是内在的物理因果过程。

生存筛选的论证提供了一个平行的区分:相关连接和因果判断。AI擅长识别大量数据中的相关模式,并以因果的语言表达出来;但这个表达来自对人类因果推理模式的统计拟合,不是来自在真实后果压力下被校准的判断力。

两个论证指向同一个深层判断:AI处理的是符号和模式,而符号和模式需要一个外部的意义赋予者。真实的因果理解和真实的意识,都需要内在的、与世界真实后果相连的某种东西,而这是纯粹的计算过程无法提供的。

值得注意的是,Lerchner的论证明确指出,如果一个人工智能有朝一日有意识,那将是因为它特定的物理构成,而不是它的计算架构。这为未来可能出现的完全不同的人工智能留下了理论空间,但对当前基于符号计算的大语言模型,这个可能性不成立。

五、因果能力为什么会退化

生存筛选的论证还揭示了一个通常被忽视的方向:不只是AI没有因果能力,人的因果能力也会在特定条件下退化。

当一个人的决策可以被反悔,责任可以被转移,错误有人兜底,真实的后果被持续隔离——因果能力就会下降。不是因为智力下降了,而是因为校准因果判断的选择压力消失了。

AI的大规模使用,有可能在某些维度上降低这个选择压力。当AI可以提供流畅的解释、快速的答案、令人满意的分析,人对自己判断进行真实检验的动机就会减弱。如果大量使用AI的方式是寻求确认感而不是挑战自己的判断,因果能力不但不会因为使用AI而增强,反而会因为减少了真实的因果检验而退化。

这是AI时代一个被低估的风险: AI提供的流畅感和解释快感,可能会侵蚀人的因果能力。

六、AI的真实位置

厘清了因果能力的来源,AI的真实位置也就清楚了。

AI不是因果能力的来源,也不是因果能力的替代,而是在使用者已有因果判断框架的前提下,成为因果能力的放大器。它能扩展人在寻找因果时的信息覆盖范围,加速错误的暴露,降低试错的成本,在人的判断框架里递来手电筒,让人能在更大的空间里看得更清楚。

这个定位有一个重要的含义:AI的价值,取决于使用者本身的因果能力。使用者的因果判断能力越强,AI放大的效果越显著。

AI生成可能,人寻找因果。这个分工不是一个使用建议,而是对因果能力来源的如实描述:可能性来自AI的海量相关连接,因果判断来自承担真实后果的主体。两者不能互换,也不会互换。

七、一个开放的问题

这篇文章的论证,建立在一个尚未完全定论的前提上:意识和真正的因果理解,需要在真实后果压力下形成,而不只是复杂的功能模式。

这个前提面临真实的挑战。功能主义者会问:如果一个系统的行为在所有可观察维度上,都和有因果能力的主体完全一致,凭什么说它没有因果能力?这个问题没有容易的答案。

但有一件事是确定的:在这个问题得到答案之前,在能够证明AI可以产生真实的因果理解之前,把AI的输出等同于真实的因果判断是不安全的。无论在认识论上还是在实践上,把相关连接和因果判断区分开,都是当前最稳健的立场。