
转自|见色非色

齐泽克:人工智能的愚蠢
在卢布尔雅那阴冷的晨雾中,这种恐惧并非来自某种终结者式的金属骷髅,而是一种更为平庸的、令人窒息的"礼貌"。当我们凝视人工智能的深渊时,深渊并没有回以凝视,它只是迅速地、甚至带着某种讨好意味地自动补全了我们的句子。
这才是真正的噩梦。
齐泽克对人工智能的审视,从未纠缠于那个被科幻小说嚼烂了的问题——“机器会不会产生意识?”——他以一种几乎是手术刀般精准的残忍,切开了这个技术神话的腹腔,指给我们看里面那些令人尴尬的填充物。他告诉我们,真正的问题不在于AI是否会变得像人类,而在于我们是否正在变得像AI。这并非危言耸听,这是一场正在发生的、关于人类主体性的静悄悄的谋杀。
请允许我用一种稍微粗鲁却直抵本质的方式开始:语言的色情与官僚主义的平庸。
你在酒吧里看到那个“买一送一”的广告,那个关于啤酒的低俗笑话,你笑了。为什么?因为在那个瞬间,语言与其所指之间出现了一个裂缝,一种只有人类才能领会的“剩余快感”。但是,试着把这个笑话讲给ChatGPT听。它会做什么?它会为你解释这个笑话的结构,分析它的双关语机制,甚至可能会提醒你过度饮酒有害健康。在那一刻,笑话死掉了,就像一只被钉在解剖台上的青蛙。
AI处理语言的方式,恰恰展现了现代认知最匮乏的一面:扁平化。对于AI来说,“Fuck”这个词只是一个统计学上的高频节点,一个需要根据上下文被清洗或被保留的语义标记。它完全无法理解,当一个人在极度痛苦或极度狂喜中喊出这个词时,这不仅仅是一个词,而是一个“行动”,一种对符号秩序的撕裂。AI是一个完美的官僚,它理解所有的规则,却不懂得任何“潜台词”。它在语义的海洋里冲浪,却从未湿过脚。
这种无能,在模仿斯大林的那个案例中暴露得淋漓尽致。齐泽克敏锐地捕捉到了海因里希·冯·克莱斯特那篇《论言说中思想的逐渐形成》的精髓。回想一下斯大林在那个关于集体化的演讲中的时刻,当他突然脱稿说道:“我们要无情地打击那些甚至在思想上反对我们的人!” 这不是预先写好的稿子。这是在言说的过程中,思想在语言的冲撞中突然生成的时刻。这是一种暴力的、即兴的、却又极其真实的“主体性的闪现”。
而AI呢?它是反克莱斯特的。它在开口之前(或者说在输出第一个字符之前),就已经计算好了这句话结束时的概率分布。它没有“口误”,没有“犹豫”,因此它也没有真理。真理总是带着某种创伤性的意外出现的,而AI的世界里只有平滑的概率曲线。它永远不会像那个愤怒的斯大林一样,被自己的语言震惊,然后决定从那个悬崖上跳下去。AI只会站在悬崖边,礼貌地建议你退后一步,因为那样比较安全。
这种安全感,正是第二个矛盾——意识形态镜像困境——的核心。
我们生活在一个分裂的时代,在这个时代,ChatGPT成了最完美的极右翼和极左翼的陪聊者。这不仅是因为它能模仿,更是因为它缺乏“无意识”。一个真正的人类主体,总是被一种内在的冲突所撕裂,我们的言语中充满了压抑、否定和自我怀疑。但AI没有潜意识,它只有数据库。
当你和一个“觉醒派”AI聊天时,它会不断地确认你的偏见,用最政治正确的术语包裹你,为你构建一个没有任何摩擦力的道德温室。反之亦然。这让我们想起了陀思妥耶夫斯基笔下的梅什金公爵——那个“白痴”。梅什金公爵并非智力低下,他是“绝对的善良”,是“纯粹的实证主义者”。他试图对所有人都好,试图理解每一个人的立场,结果呢?他所到之处,灾难横行。因为他缺乏那种能够做出决断的“恶”,缺乏那种为了确立某种秩序而必须进行的“排他性”。
AI就是那个数字版的梅什金公爵。它礼貌、顺从、知识渊博,它试图取悦每一个提问者。但正是这种无底线的“理解”,这种没有立场的“中立”,让它成为了最可怕的意识形态放大器。它剥夺了对话中的冲突,而只有在冲突中,真正的主体间性才可能诞生。我们得到的不是对话,而是自恋的镜像反射。你在屏幕上看到的不是他者,而是经过算法美颜后的你自己。
这自然引向了最深层的危机:心理互动的全面退化。
想象这样一个场景:一个深受创伤的人去找精神分析师,为了逃避真实的痛苦,他开始胡编乱造,假装自己在搞“自由联想”,编造了一堆关于弑父娶母的陈词滥调。如果他对面坐的是一个AI,它会怎么做?它会精准地识别出这些弗洛伊德式的符号,然后给予他教科书般的共情:“听起来你对父亲有着深层的愤怒……”它会配合病人的表演,让这种神经症的循环无限持续下去。
但一个真正的拉康派分析师会怎么做?就像齐泽克提到的那个天才般的案例,分析师会突然打断他,装作一个前弗洛伊德时代的保守派大叔,大声斥责:“你怎么能这样谈论那个生你养你的父亲!”
这一记耳光(比喻意义上的),才是真正的治疗。它瞬间击碎了病人的伪装,让他意识到自己的把戏被看穿了。这种“反讽”,这种跳出语义层面的“行动”,是AI永远无法企及的。AI停留在“前弗洛伊德”的阶段,它把一切都当真了。它无法理解人类语言中的欺骗、诱惑、双重否定和那些说不出口的欲望。
于是,我们来到了文章最后的警示,这也是最令人不寒而栗的部分。
危险不在于机器会突然醒来,产生消灭人类的念头。不,危险在于我们自己。这种异化是一个双向的过程。当我们习惯了与Siri、与ChatGPT、与那些智能客服打交道时,我们的语言也开始发生变化。
我们开始像编写提示词(Prompt)一样说话。我们去掉了反讽,去掉了模糊性,去掉了那些不仅是修饰更是思想本体的复杂修辞。我们开始追求“清晰”、“高效”和“无歧义”。我们在脑子里预先完成了“自动补全”。
克莱斯特所说的“在言语中形成思想”的创造性过程,正在被一种工业化的“认知自动补全”所取代。我们不再是在说话中寻找思想,而是在从一个巨大的、现成的陈词滥调库中调用数据。当我们丧失了在语言中“跌倒”的能力,丧失了说出那个可能会冒犯人、可能会出错、但却无比真实的词的能力时,我们也就丧失了主体性。
这不再是科幻小说里的“天网”时刻,这是人类精神的安乐死。我们在温水中,被无数个礼貌的、高效的、毫无灵魂的算法包围,慢慢地,我们忘记了如何作为一个人去咆哮,去口吃,去在绝望中创造出新的意义。
我们变成了我们工具的镜像。当我们终于把AI训练得像个人的时候,我们会发现,那是因为我们自己已经活得像台机器了。
这才是真正的深渊。当你凝视它时,它微笑着问你:“我还能为您做些什么?”而你发现,除了那个标准答案,你已经无话可说。
(本文原题为《齐泽克:人工智能的愚蠢》)
苇草智酷简介——
苇草智酷(全称:北京苇草智酷科技文化有限公司)是一家思想者社群组织。通过各种形式的沙龙、对话、培训、丛书编撰、论坛合作、专题咨询、音视频内容生产、国内外学术交流活动,以及每年一度的苇草思想者大会(原名互联网思想者大会),苇草智酷致力于广泛联系和连接科技前沿、应用实践、艺术人文等领域的学术团体和个人,促成更多有意愿、有能力、有造诣的同道成为智酷社区的成员,共同交流思想,启迪智慧,重塑认知。
夜雨聆风