我們真的在問“AI會不會理解”嗎?其實問題早就問錯了
你第一次用ChatGPT,大概率会冒出一个问题:它到底懂不懂?
这个问题太自然了。
就像老师问学生:“你理解了吗?”
但问题在于——我们可能在用一把不合适的尺子。
想象一个有点奇怪的人:他可以流利讲解量子力学,甚至能指出论文里的逻辑漏洞;
但同时,他会在最简单的事情上犯错——比如数错一句话里有几个词。
你会怎么评价他?
* “他其实理解得很深,只是粗心?”
* 还是“他根本没理解,只是在装?”
大多数人会犹豫。
这正是大型语言模型带来的困境。
它可以:
* 写出像样的哲学文章
* 解释复杂概念
* 甚至帮你整理思路
但同时也会:
* 数错字母
* 做错简单推理
* 给出一本正经的错误答案
于是我们陷入一个很奇怪的状态:
* 如果说它“理解了”,它的错误太离谱
* 如果说它“没理解”,它的能力又太惊人
哲学其实早就准备好了两种答案。
一派来自 Hilary Putnam:
只要行为表现对,就可以说它“理解”
另一派来自 John Searle:
没有真正的语义,一切只是符号操作
但LLM的问题在于——
它让这两种答案同时变得不舒服。
* 它的行为太像“理解”
* 它的错误又太不像“理解”
这时候,一个更不舒服的可能性出现了:也许问题不在AI,而在我们自己。
更具体一点:我们对“理解”的概念,可能太粗糙了。
过去,我们只面对两种对象:
* 人类(显然会理解)
* 机器(显然不会理解)
所以“理解”这个词,一直没被仔细拆过。
但现在出现了第三种东西:
👉 既不像人,也不像传统机器的系统
它卡在中间,让我们的概念开始失灵。
这就像你一直用“黑”和“白”来区分世界,
突然出现了一大片灰。
你可以坚持说:
* “灰其实是黑”
* 或者“灰其实是白”
但你心里知道:问题不是灰,而是你的分类方式不够用了。
所以,比起问:AI会不会理解?
也许我们更应该问:
“理解”到底是什么意思?
夜雨聆风