乐于分享
好东西不私藏

看到 AI,也看到人

看到 AI,也看到人

图像由GPT-Image-2生成

1


AI 会不会取代人?

这个问题中藏着另一个问题:当我们说”取代”的时候,我们如何看待自己或者人本身?

如果人只是功能的集合,取代就是时间问题。否则,”取代”一词,或这种想法,或许有失偏颇。

2


今年三月,Google DeepMind 的 Alexander Lerchner 发了一篇论文,叫《The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness》。

他的结论很硬:AI 可以模拟意识,但不可能仅凭计算实例化意识。不是现在不行,是原则上不行。

他的论证不诉诸神秘,不诉诸生物特殊性,只用了一组朴素的区分:计算是地图,经验是土地。

地图可以画得无限精细——每一条街道、每一栋楼、每一棵树都标注在上面。但无论精细到什么程度,地图不会变成那座城市。你不会在地图上淋雨,不会在地图上闻到饭香。

这不是程度问题。是类别问题。

Lerchner 进一步追问:计算到底是什么?我们以为芯片里天然就有 0 和 1。但物理世界里没有 0 和 1。芯片里真正发生的,只是电压、电子、材料状态在变化。是人规定了这段电压叫 0,那段叫 1。

这个规定动作,他称之为 alphabetization。能执行这个规定的,必须是一个已经能理解概念、已经身处经验世界的主体。

换言之,”计算”这件事要成立,前提是已经有一个有意识的存在者在那里做解释。

由此,他指出了一个因果倒置。功能主义的默认假设是:物理产生计算,计算产生意识。但真实的顺序恰好相反——先有意识经验,才有概念,才有符号,才有计算。

试图用计算去解释意识的涌现,等于试图用一个已经预设了意识存在的过程,来解释意识本身的起源。这不是尚未解决的技术难题,是逻辑上的自相矛盾。

3


同月,一家叫 Eon Systems 的公司,把成年果蝇的完整大脑连接组——13.9 万个神经元,超过 5000 万个突触连接——逐一建模,接入虚拟身体和物理仿真环境。感觉信号输入,神经活动沿真实连接组传播,运动指令输出,虚拟身体执行动作。

行为准确率 91%。

这不是通常意义上的 AI。它不是训练一个神经网络去模仿果蝇,它是把一个真实生物的大脑结构原封不动搬进电脑,然后让它驱动一具虚拟的身体。

如果 Lerchner 的判断是对的——计算永远只是地图——那这只果蝇就是对那个判断最严苛的检验。因为它复制的不是抽象算法,是真实大脑本身。

原封不动的大脑结构,搬过来之后,还缺什么?

真实果蝇趋向糖,是因为糖关乎生存;虚拟果蝇的”糖”只是一个仿真变量,与饥饿无关。真实果蝇避开高温,是因为高温会损伤身体;虚拟果蝇的”热”只是参数,与任何身体性的损伤无关。真实果蝇逃离触碰,是因为触碰可能意味着捕食者;虚拟果蝇的”触碰”只是一个输入信号,与威胁无涉。

行为出来了。但”世界”没有跟过来。糖对真实果蝇而言是生存,热对它而言是威胁,同伴对它而言是机会——所有这些”对它而言”加在一起,才构成一个世界。虚拟果蝇有环境,没有”对它而言”。

它是一张极其精细的地图。但仍不是土地。

4


陈嘉映在纪录片《解释鸿沟》里讨论”缸中之脑”的问题。

假设一个大脑被泡在营养液里,外部用电信号精确刺激它,使之产生与正常人完全一致的视觉神经活动。这个大脑在”看”吗?

陈嘉映认为,没有。

“我看见桌上有个杯子”——这句话背后默认了太多东西:我在一个世界里。我有身体。我能转头。我能走过去。我能伸手拿。我能发现自己看错了,再看一遍。我能叫旁边的人也看一眼。我能把看见的东西接到行动上去。

这些加在一起,才是”看”。

“去看”不是脑内生成了一幅图像。”去看”是一个主体朝向世界。

缸中之脑缺的是”去看”。但这引出一个更根本的追问:如果”去看”不在脑内,那”被看见的红色”又在哪里?

科学可以把”我看见红色”拆解为波长、视锥细胞反应、神经传导、脑区激活。每一步都正确。但拆解完毕之后你会发现,”红色作为被看见的红”不在这个拆解过程中。不是科学遗漏了什么,是这种描述方式从一开始就把第一人称的经验框在了取景框之外。

红色不是离开了物理世界。它也不是物理说明中某个可替换的零件。它是世界对一个活着的、有身体的、在行动中的主体显现出来的样子。

没有那个主体,红色无处显现。

5


“取代”成立的前提,是人的全部价值在于“功能”。

但人看见红色,不是视网膜做了一次分类。人去看一个东西,不是大脑接收了一份输入。人在世界中行走、判断、犯错、害怕、爱恨情仇——这些事情的每一件,都不是功能的执行。它们是一个活着的主体与他所处世界之间的关系。

这种关系目前无法上传,无法仿真,无法用参数复现。

不要按 AI 的形状来理解人。把意识理解为”还没涌现的模型能力”,把判断理解为”参数不够多的推理”,把人理解为”一个还不够好的 LLM”。

这比 AI 取代人危险得多。

看到 AI,也要看到人——一个有身体的、在世界中行走的、会看见红色的、能朝向他人的存在。

这个存在,独一无二。