乐于分享
好东西不私藏

AI真的「懂」你说的话吗,两派人吵了三十年

AI真的「懂」你说的话吗,两派人吵了三十年

     符号主义和连接主义的世纪之争,到今天也没分出胜负。你问 GPT-4 一个问题,它能答。但它「懂」你在问什么吗?这个看似简单的问题,是 AI 研究者吵了三十年的核心争议。   

     你问大模型一个问题,它给你一个听起来相当靠谱的回答。你再追问,它还能接着说。你甚至觉得它好像理解了你的意思。但停下来想一秒钟——它真的「懂」你在说什么吗?还是只是在非常精准地猜你想听到什么?这两件事,从外面看几乎没有区别,但从里面看,差距可能是整个宇宙。   

     符号主义:把智能写成规则   

     符号主义这一派的核心主张很干净:智能的本质是符号操作。人在做推理、做数学、理解语言的时候,脑子里一定有一套清晰的符号系统和逻辑规则在运转。既然如此,造 AI 的正确方式就是把这些规则显式地编码出来,让机器按照规则走。这个思路在上世纪五六十年代主导了整个 AI 领域,麦卡锡、明斯基这些人都是这条路上的旗手。   

     早期的专家系统就是这套逻辑的直接产物。你把一个领域的知识整理成「如果……那么……」的规则库,机器按图索骥,在特定场景下表现得相当不错。Prolog 语言、Cyc 项目,都是同一条路线。但问题也很快暴露出来:这些系统在封闭领域里做得不错,一旦遇到开放场景就彻底抓瞎。更要命的是,感知问题根本无法用规则手工描述。你怎么用规则告诉机器一张猫的图片是猫?你没办法穷举猫的所有视觉特征,更没办法把「像猫」这件事写成逻辑公式。   

     连接主义:让数据自己说话   

     连接主义走的是完全不同的方向。不去手工写规则,而是搭一个由大量简单节点构成的网络,让它在海量数据里自己摸索出模式。这个思路的灵感来自生物神经元,但实现上跟真实大脑的关系其实相当遥远。神经网络、深度学习、以及今天的大语言模型,都属于这一派的延伸。   

     连接主义在感知任务上的胜利几乎是碾压性的。图像识别、语音识别、自然语言处理,这些曾经让符号主义头疼的问题,被深度学习一个个拿下。但它也带来了新的麻烦:你根本看不懂网络内部在做什么。几亿个参数互相叠加,最终吐出一个答案,中间过程对人类来说是一个彻底的黑箱。它学到了什么,它为什么这么答,没人能给出清晰的解释。   

     符号主义造了一个会推理但不会感知的 AI。连接主义造了一个会感知但说不清怎么推理的 AI。两派都没造出真正的「懂」。   

     大模型站在哪一边   

     从架构上看,大语言模型毫无疑问是连接主义的产物。它的核心是 Transformer,是矩阵乘法,是梯度下降,跟符号推理没有直接关系。但一个奇怪的现象在规模扩大之后开始出现:模型似乎自发涌现出了某种类符号的推理能力。你让它解一道逻辑题,它能把推理步骤一条条列出来。你让它做代码调试,它能追踪错误的来源。这不太像纯粹的模式匹配,更像是有某种内部结构在支撑推理过程。   

     当然,也有人不这么乐观。他们认为大模型的「推理」不过是更高级的统计模拟,是在训练数据里见过足够多类似的推理步骤,然后把它们拼接出来。它看起来在推理,但内部并没有真正的逻辑结构在运转。这两种解读到目前为止都无法被彻底证伪,这本身就说明了问题的复杂性。   

     30年   

     符号主义与连接主义之间学术争论的持续时间,期间经历了多次范式更迭,至今未有定论   

1当前两派的融合尝试:神经符号混合架构,把符号推理模块嵌入神经网络,试图同时获得两者的优势

2连接主义的显式化努力:思维链提示、工具调用、Agent 框架,让模型的推理过程变得可观察、可干预

3符号主义的局部复兴:在需要严格逻辑保证的领域,比如数学证明和代码验证,纯神经网络方案仍然不够可靠

4两派开始承认:真正强健的智能可能同时需要感知的柔性和推理的刚性,单靠一条路走不到终点

     从更长的视角来看,这场争论其实不只是技术路线之争,它背后是两种完全不同的智能观在打架。符号主义认为智能是可以被形式化、被明确描述的,就像数学定理一样,原则上可以被写出来。连接主义则认为智能是从复杂系统里涌现出来的,不存在一个可以被提取出来的「规则核心」,就像你没办法从神经元层面解释一个人为什么喜欢某首歌。这两种观点都有道理,也都有盲区,这大概是它们吵了三十年还没分出胜负的根本原因。   

//AI/

     ✦ 小结   

     AI 懂不懂你的话,取决于你怎么定义「懂」。如果「懂」意味着能给出正确回应,大模型显然做到了。如果「懂」意味着内部有真实的理解过程在运转,没人能确定。两派吵了三十年没分出胜负,说明这个问题可能根本没有一个干净的终极答案。我们能做的,只是观察它做了什么,而没有办法真正看到它在想什么。