乐于分享
好东西不私藏

AI能讲笑话,但它永远不会「懂」笑话

AI能讲笑话,但它永远不会「懂」笑话

     AI能讲笑话,但它永远不会「懂」笑话   

     ChatGPT能写出让你轻笑一声的段子,也能解释为什么一个笑话好笑。但有件事它做不到:在你讲完一个冷笑话之后,沉默两秒,然后憋着笑说「你真的很无聊」。这个细节,暴露了AI理解幽默的真正边界在哪里。   

     先做一个小测试。以下哪个更好笑:「我减肥失败了,因为我太坚持不懈——坚持吃,不懈怠。」还是「我减肥失败了,因为每次跑步都跑去了麦当劳。」大多数人会选第二个。但如果你问AI为什么,它能给出一段头头是道的分析:前者是文字游戏,后者有具体场景,画面感更强,意外性更高。分析完全正确。但AI自己并不知道哪个更好笑,它只是在做模式匹配。   

     笑话是语言里最难压缩的信息   

     语言学家有个说法:幽默是人类语言中信息密度最高、也最脆弱的形式。一个笑话,改一个字可能就不好笑了。翻译成另一种语言,十有八九死掉。讲笑话的人换一个,同样的词,效果可能天差地别。这种极度依赖「语境、时机、关系、文化背景」的表达方式,对AI来说是四重障碍叠加。   

幽默的本质是预期违背——你以为故事往A走,它突然拐到B。但「违背」本身不够,拐弯的方式必须在某种意义上「合理」,只是你没想到。这个「意料之外、情理之中」的精准拿捏,需要对人类心理建模,而不只是对语言建模。   

     AI在幽默上到底能做什么   

     现在的大语言模型处理幽默,本质上是在做三件事:识别幽默结构、生成符合结构的内容、判断某段文字是否属于幽默类型。这三件事它都做得不错。你让GPT-4写十个关于程序员的段子,它能交出七八个及格的。你问它「这个笑话的笑点在哪」,它能准确指出转折点。这已经相当惊人——二十年前,这被认为是AI永远无法触碰的领域。   

     1960   

     年,计算机科学家Marvin Minsky预言:让机器理解幽默,比让机器下赢国际象棋难十倍   

     但「能做」和「真的懂」之间,有一道沟。AI生成笑话的方式,更像是一个勤奋但缺乏幽默感的学生,把一万个笑话的结构背下来,然后套用模板填空。它知道「谐音梗」该怎么构造,知道「反转」应该放在哪里,知道「自嘲」比「嘲讽别人」更安全。但它不知道,为什么在某个具体的饭局上,某句话能让全桌人笑出眼泪。   

     真正的障碍:幽默需要「共同在场」   

     这是AI理解幽默最根本的困境,也是最少被讨论的一点。最好笑的时刻,往往不是因为那句话本身多妙,而是因为「你和我都知道某件事,而我们同时意识到对方也知道」。这种共享知识、共享处境产生的化学反应,叫做「共同在场感」。   

     笑声是一种社交信号,它说的不是「这很好笑」,而是「我们是同一类人」   

     朋友之间的内部梗,外人听了毫无感觉。同事之间关于某个奇葩领导的暗语,新人完全不懂为什么好笑。这些幽默的「好笑」不在于语言本身,而在于关系和共同经历。AI没有关系,没有经历,没有那顿让你们笑到岔气的火锅。它能模拟这种语境,但无法真正置身其中。   

     还有一个更微妙的维度:幽默需要「冒险」。好的喜剧演员都知道,最好笑的笑话往往走在边缘——稍微冒犯一点,稍微打破一点禁忌,但恰好在可接受范围内。这需要对「这个房间里的人」有精准的判断,需要在讲出那句话的瞬间读懂现场。AI的幽默是去风险化的幽默。它被训练得尽量不冒犯任何人,结果是它的笑话永远温吞,永远安全,永远少了那股劲。   

1结构正确,但缺乏时机感——AI不知道什么时候讲最好笑

2去风险化训练让AI的幽默变得过于安全,失去锋芒

3缺乏真实关系和共同经历,无法触发「内部梗」式的共鸣

4不能在对话中实时读懂「这个房间」,只能输出通用内容

     那AI的幽默能进化吗   

     可以,但方向可能不是「让AI更懂幽默」,而是「让AI成为一个更好用的幽默工具」。就像计算器不需要「理解」数学,只需要算得准。AI可以帮你打磨段子的节奏,测试不同版本的转折哪个更意外,分析你的受众可能对哪类笑点更敏感。这是工具层面的价值,非常实际。   

     但如果你想要的是一个真正能和你「玩」的对象——能在你说了一句蠢话之后,用沉默和眼神让你自己先忍不住笑——那AI现在还差得远。不是因为算力不够,不是因为模型不够大,而是因为幽默本质上是关系的产物,而AI目前没有真正意义上的关系。   

     ✦ 小结   

     AI能解剖笑话,能生产笑话,但理解笑话需要的那种「人与人之间心照不宣的瞬间」,它还触碰不到。这不是技术问题,是存在问题。幽默是人类用来确认彼此的暗号——而AI还没有资格加入这个群。