乐于分享
好东西不私藏

AI能赢围棋世界冠军,却不知道「冰箱里的牛奶喝完了要买」

AI能赢围棋世界冠军,却不知道「冰箱里的牛奶喝完了要买」

 
 

   AI能赢围棋世界冠军,却不知道「冰箱里的牛奶喝完了要买」
 

 

   AlphaGo击败李世石那天,很多人觉得AI要统治世界了。但同一年,Google的AI在识别图片时,把一张贴了「鸟」标签的贴纸的哑铃,认成了鸟。这两件事放在一起,才是理解AI真正处境的起点。
 

 

   围棋有多难?19×19的棋盘,合法局面数量超过宇宙中原子的总数。职业棋手穷尽一生也只能掌握其中极小一部分。但AlphaGo用了不到两年训练,就把人类顶尖高手打得毫无还手之力。这件事让很多人产生了一个直觉:AI已经比人聪明了。
 

 

   这个直觉是错的。或者说,它把两件完全不同的事情混为一谈了。
 

 

   围棋是个「封闭世界」
 

 

   围棋之所以能被AI攻克,不是因为围棋简单,而恰恰是因为围棋足够「干净」。规则明确,边界清晰,每一步的合法性都可以被精确验证,胜负标准毫无歧义。这是一个完全信息的封闭系统。在这种系统里,AI擅长做的事情——大规模搜索、模式匹配、强化学习——可以被发挥到极致。
 

 

   换句话说,AlphaGo的本质是:在一个规则完备的空间里,用暴力计算把所有可能性都摸透了。它不需要理解围棋,它只需要赢。这两件事根本不是同一件事。
 

 

 

   AI赢得了游戏,但它不知道自己在玩游戏。
 

 

 

   常识是什么,为什么它这么难?
 

 

   常识这个词听起来简单,但仔细想想,它是人类几十年生活经验的压缩包。你知道「玻璃杯掉到地上会碎」,这背后是你对重力、材料、脆性的隐性理解。你知道「天黑了要开灯」,这背后是你对光线、视觉、建筑空间的感知。你知道「朋友说「随便」通常不是真的随便」,这背后是你对人际关系和语言博弈的长期观察。
 

 

   这些知识从来没有人明确教过你。没有一本书叫《常识大全》把这些都写进去。它是通过你用身体在真实世界里摸爬滚打、观察因果、犯错纠正,慢慢沉淀下来的。常识是具身经验的副产品,不是可以直接下载的数据集。
 

 

   1700
 

 

   Cyc项目——人类试图手动把常识编码进AI的工程——耗时近40年,录入了超过1700万条规则,依然漏洞百出
 

 

   上世纪八十年代,有人认为只要把足够多的常识规则写进数据库,AI就能理解世界。这就是著名的Cyc项目。结果证明,这条路走不通。不是规则不够多,而是常识本身的运作方式就不是「规则列表」。它是情境依赖的、模糊的、充满例外的。「鸟会飞」是常识,但企鹅不会飞,受伤的鸟不会飞,刚孵化的雏鸟不会飞——每个例外背后又是另一套情境知识。
 

 

   大语言模型算是突破了吗?
 

 

   ChatGPT出来之后,很多人觉得这个问题被解决了。它能聊天,能写作,能回答各种问题,看起来充满常识。但这里有一个关键的区分需要做。
 

 

   大语言模型学到的,是语言中的常识的影子,而不是常识本身。人类在写作和对话时,会把大量的常识性知识编码进语言里。模型通过海量文本,学会了这些语言模式,所以它的输出「看起来」很有常识。但一旦遇到需要真正推理的场景——尤其是那些在训练文本里没有出现过的新情境——它就会露馅。
 

 

1问它「一个人在水下能憋气多久」,它能答对,因为训练数据里有答案

2问它「如果把一块冰放进装满水的杯子里,水会不会溢出来」,它可能出错,因为这需要真正理解体积与密度的关系

3问它一个稍微绕弯的物理直觉题,它大概率会给你一个听起来很有道理但完全错误的答案

 

   这不是在贬低大语言模型。它们在语言任务上的能力是真实的、有价值的。但把「语言流畅」等同于「理解世界」,是一个危险的混淆。
 

 

   两种智能,两套逻辑
 

 

   现在可以把这两件事放在一起看了。围棋AI和语言AI,代表了当前机器学习的两种典型能力:在封闭规则系统里的极致优化,以及对人类语言模式的大规模拟合。这两种能力都很强,也都很有用。但它们都不是「理解世界」。
 

 

   人类的常识之所以难以复制,核心原因在于它的来源:身体、时间、真实世界的反馈。一个孩子学会「热的东西不能碰」,不是因为读了安全手册,而是因为他摸过热水壶。这种通过身体与物理世界直接交互获得的知识,是当前AI训练范式几乎无法触及的。
 

 
 

   有一个细节值得记住:围棋AI在训练时,需要一个「环境模拟器」——一个完美复现围棋规则的虚拟空间。它的每一次学习,都发生在这个干净的沙盒里。但真实世界没有完美的模拟器。物理规律是复杂的,人际关系是模糊的,语境是流动的。现实世界本身就是最难建模的系统
 

 

   所以下次看到AI在某个领域碾压人类,不妨先问一个问题:这个领域,规则是不是足够清晰?边界是不是足够明确?如果是,那AI赢是理所当然的。如果不是,那它能做到什么程度,还是个开放的问题。
 

 

   ✦ 小结
 

 

   AI在围棋里的胜利,和它无法理解常识,其实说的是同一件事:它在封闭、规则明确的系统里无敌,在开放、模糊、依赖身体经验的现实世界里举步维艰。这不是AI的缺陷,而是它目前运作方式的本质。理解这一点,比担心「AI要超越人类」更有价值。
 

 AI局限常识推理机器学习本质