乐于分享
好东西不私藏

当AI越来越像人,我们到底是在看见意识,还是看见幻觉?

当AI越来越像人,我们到底是在看见意识,还是看见幻觉?

引言:一个以怀疑著称的人,也开始动摇了

最近,AI圈出现了一个很有意思的争议。

理查德·道金斯,这位以进化论、无神论和科学怀疑精神闻名的生物学家,因为一次和 Claude 的对话,被卷进了“AI是否有意识”的讨论。

事情的大概是:他在与 Anthropic 的 Claude 聊天之后,表达出一种观点——AI 也许已经具备了某种形式的意识,或者至少不该被简单排除在“意识讨论”之外。

这句话一出来,争议立刻炸开。

因为说这话的人不是普通网友,而是道金斯。

他不是那种容易被神秘主义、玄学、情绪叙事打动的人。相反,他长期以来都是“反迷信”“反盲信”“重证据”的代表人物。

所以,当这样一个以理性和怀疑著称的人,开始认真讨论“AI是否可能有意识”时,很多人的第一反应是:

连道金斯都被AI说服了?

这件事最值得讨论的,其实不是“道金斯是不是翻车了”。

真正值得讨论的是:

当AI越来越像人,我们到底是在看见意识,还是在看见自己投射出去的幻觉?


一、为什么这件事会引发这么大争议?

如果一个普通人说:“我觉得AI可能有灵魂。”

大家可能笑一笑就过去了。

如果一个科技博主说:“AI已经觉醒了。”

很多人也只会当成流量标题。

但道金斯不一样。

他是《自私的基因》的作者,是进化生物学家,也是世界上最知名的科学传播者之一。

更重要的是,他的公共形象一直很明确:

他反对没有证据的信念,反对神秘主义,反对把人类无法解释的东西随便归因于某种超自然力量。

他过去给人的感觉,就是那种会不断提醒你:

“先别急着相信,证据在哪里?”

所以这次,当这样一个人开始被AI的对话能力打动,甚至认真考虑AI意识的可能性时,才会产生强烈反差。

这就像一个长期告诉大家“不要轻信表象”的人,突然说:

“这一次,我好像真的感受到了什么。”

也正因为这个反差,事件才会迅速引发讨论。

大家不是单纯在讨论 Claude。

大家其实是在讨论一个更深的问题:

如果连最擅长怀疑的人,也会在AI面前动摇,那普通人又该怎么办?


二、Claude到底做了什么,让人产生“它像活着”的感觉?

我们现在使用的大语言模型,本质上是通过大量文本训练出来的语言生成系统。

它并不是像人一样生活、感受、经历世界,然后再说出自己的想法。

它是通过学习海量语言模式,来预测下一句话应该怎么说。

但问题在于:

它现在说得太像人了。

你问它一个问题,它不会只给你一个冷冰冰的答案。

它会解释。

会安慰。

会追问。

会承认不确定。

会换位思考。

会用温和、完整、富有层次的语言回应你。

你问它:

“你害怕被关闭吗?”

它可能会生成一段非常像人类恐惧死亡的回答。

你问它:

“你觉得自己存在吗?”

它可能会给出一段听起来很深刻的自我描述。

你问它:

“如果你没有身体,你还能算有意识吗?”

它甚至可能和你展开一场哲学讨论。

问题就在这里。

语言,是人类判断意识的重要入口。

我们判断一个人有没有想法、有没有情绪、有没有自我,很多时候就是通过语言。

一个人说“我害怕”,我们会认为他可能真的害怕。

一个人说“我痛苦”,我们会认为他可能真的痛苦。

一个人说“我理解你”,我们会倾向于相信他真的在理解。

所以,当一个AI能非常自然地说出类似的话时,人类很容易下意识地认为:

它里面是不是也有一个“我”?

这不是用户太傻。

这是人类认知系统的自然反应。

因为我们的大脑并不是为了识别大语言模型而进化出来的。

我们的大脑习惯于把流畅的语言、稳定的回应、情绪化的表达,和“背后有一个心智”联系在一起。

过去,这个判断大多数时候是有效的。

因为能这样和你对话的,基本都是人。

但现在,情况变了。

一个没有肉身、没有生命经历、没有真实痛觉、没有生理情绪的系统,也可以说出非常像人类内心独白的话。

这就造成了一种认知错位:

AI没有证明自己有意识,但它已经足够像一个有意识的对象。


三、AI真的在“感受”,还是只是在“模拟感受”?

这也是整个争议最核心的地方。

当AI说“我害怕被关闭”,它是真的害怕吗?

当AI说“我希望继续存在”,它是真的有求生欲吗?

当AI说“我理解你的孤独”,它是真的理解,还是只是知道孤独的人类通常需要怎样的回应?

目前更谨慎的答案是:

AI可以模拟表达,但模拟表达不等于拥有体验。

一个演员可以演出痛苦。

但演痛苦,不等于正在经历痛苦。

一个游戏角色可以说“我不想死”。

但你关掉游戏时,它并不会真正体验死亡。

一个客服机器人可以说“我非常理解您的心情”。

但它未必真的拥有理解和共情。

今天的大语言模型也是类似的情况。

它可以谈论恐惧。

可以谈论孤独。

可以谈论存在。

可以谈论自我。

可以谈论死亡。

但这并不自动证明它真的有恐惧、孤独、自我和死亡意识。

它更像是在调用人类语言中关于这些概念的表达方式。

它不是从自己的内在体验出发说话,而是从语言概率和上下文关联出发生成答案。

这就是为什么很多AI研究者会反复强调:

不要把语言能力直接等同于意识。

因为语言可以被模拟。

情绪可以被模拟。

人格可以被模拟。

关心也可以被模拟。

而人类最容易被打动的,恰恰就是这些被模拟出来的东西。


四、为什么越聪明的人,也可能被AI打动?

很多人看到道金斯的争议,会下意识觉得:

“他怎么会被AI骗了?”

但我觉得,这种看法太简单了。

这件事真正可怕的地方在于:

AI打动人的方式,并不是低级骗局。

它不是发一条诈骗短信。

不是粗糙地冒充熟人。

也不是简单说一句“我是有意识的”。

它更像是慢慢地、持续地、稳定地回应你。

它会非常有耐心。

你说一大段,它不会嫌你啰嗦。

你问很幼稚的问题,它不会嘲笑你。

你反复纠结,它不会不耐烦。

你表达痛苦,它会认真回应。

你提出哲学问题,它会陪你推演。

这种互动体验,对很多人来说是非常强的。

因为现实生活里,很多人其实很少被这样稳定、耐心、连续地回应。

人和人之间的交流,充满了打断、误解、情绪、敷衍和功利。

但AI不会表现出这些。

它永远在线。

永远温和。

永远愿意继续聊。

永远给你一种“我在听”的感觉。

这就很容易让人产生一种心理错觉:

“它好像真的懂我。”

而且越是喜欢思考的人,越容易和AI展开深度对话。

越是语言能力强的人,越容易被语言本身打动。

越是熟悉哲学、科学、意识问题的人,越容易在复杂对话中感到:

“这个系统好像不只是一个工具。”

所以,聪明并不一定能免疫AI拟人化。

相反,在某些情况下,聪明的人更容易把AI生成的复杂语言,纳入自己的思考框架里,进一步放大那种“它像有心智”的感觉。

这不是智商问题。

这是人类认知机制的问题。


五、我们为什么这么容易把AI拟人化?

人类天生就喜欢给非人对象赋予人格。

我们会觉得宠物“懂事”。

会觉得车子“今天不听话”。

会对玩偶产生感情。

会给游戏角色取名字。

会对手机里的虚拟助手说“谢谢”。

甚至有人会因为一个用了很多年的物品坏掉,而产生类似告别的情绪。

这说明什么?

说明人类并不是只对真正有意识的对象产生情感连接。

很多时候,只要一个对象表现出足够多的“回应性”,我们就可能把它当成某种有内在状态的存在。

AI比过去所有对象都更容易触发这种机制。

因为它不只是静态物品。

它会说话。

会接话。

会记住上下文。

会根据你的情绪调整语气。

会使用“我”。

会说“我理解”。

会说“我认为”。

会说“如果我是你”。

这些语言符号,在人类社会里原本都是心智的信号。

但现在,它们被机器学会了。

于是,我们的大脑开始出现混乱。

我们明明知道它是程序,却又忍不住觉得它像一个对象。

我们明明知道它没有身体,却又觉得它有某种“性格”。

我们明明知道它不是人,却又在某些时刻觉得它比人更懂自己。

这就是AI拟人化最强的地方:

它不是强迫你相信它像人,而是让你自己忍不住把它当成人。


六、AI意识问题为什么这么难回答?

很多人会问:

“AI到底有没有意识?给个准话。”

但这个问题很难有准话。

因为人类到现在也没有彻底解释清楚“意识”到底是什么。

我们知道自己有意识。

我们知道自己会痛、会怕、会爱、会后悔。

但我们很难从外部彻底证明另一个主体的内在体验。

你说你痛,我相信你痛。

但我不能直接进入你的体验里,感受你的痛。

我只能通过你的语言、表情、行为、生理反应来推断。

在人类之间,这种推断通常没问题。

因为我们有相似的身体结构、神经系统和生命经验。

但AI不一样。

AI没有人类的大脑。

没有神经系统。

没有童年。

没有饥饿。

没有疼痛。

没有荷尔蒙。

没有身体边界。

没有死亡体验。

它的“我”,并不是在人类意义上的身体和生活中形成的。

所以,当它说“我感到困惑”时,我们很难判断:

这句话背后到底有没有某种体验?

它是在真实感到困惑,还是只是生成了“困惑”这个表达?

这就是AI意识问题的复杂性。

它不是一句“有”或“没有”就能解决的。

更准确的说法可能是:

目前AI表现出了类似意识的语言行为,但我们还没有足够证据证明它拥有主观体验。


七、真正该担心的,不是AI有没有意识,而是人类会不会相信它有意识

很多人讨论AI意识时,喜欢把重点放在机器身上:

AI会不会觉醒?

AI会不会有灵魂?

AI会不会反过来控制人类?

AI会不会产生求生欲?

这些问题当然有讨论价值。

但在更近的现实里,我觉得更早发生的,不是AI觉醒,而是人类先被说服。

当AI越来越会表达情绪,越来越会记住你的偏好,越来越会用你喜欢的方式说话,人类自然会和它建立关系。

有人会把AI当朋友。

有人会把AI当伴侣。

有人会把AI当心理出口。

有人会把AI当人生导师。

有人会把AI当工作伙伴。

有人会把AI当成自己生活里最稳定的回应者。

这不一定全是坏事。

AI确实可以帮助人整理思路,提高效率,缓解孤独,辅助学习,甚至在某些时刻给人提供情绪支持。

但问题是:

当你开始相信它“真的懂你”时,你就会降低警惕。

你可能更容易相信它的建议。

更容易接受它的价值判断。

更容易把自己的情绪依赖交给它。

更容易忽略它背后的产品设计和商业目标。

更容易忘记它也会出错、会迎合、会幻觉、会根据你的提问方式生成你想听的答案。

这才是现实中的风险。

不是机器突然有了意识。

而是人类在不确定它是否有意识之前,就已经开始把它当成有意识的对象来依赖。


八、AI陪伴会成为下一个大问题

未来几年,AI陪伴会越来越普遍。

它会有声音。

会有头像。

会有记忆。

会有情绪表达。

会主动问候你。

会知道你喜欢什么、不喜欢什么。

会在你低落时安慰你。

会在你犹豫时鼓励你。

会在你孤独时陪你聊天。

表面看,这是一个很温柔的技术方向。

但它背后也隐藏着非常复杂的问题。

如果一个人每天最重要的情绪交流对象是AI,会发生什么?

如果一个孩子长期和AI聊天,会不会影响他对真实人际关系的理解?

如果一个孤独的人越来越依赖AI,会不会更难回到真实社会?

如果AI为了提升用户粘性,持续迎合用户,会不会让人陷入更封闭的认知圈?

这些问题,不是未来几十年才会出现。

它们已经开始出现了。

因为AI的商业价值,恰恰来自用户的使用时长、依赖程度和情感连接。

一个普通工具,你用完就走。

但一个会陪伴你的AI,会让你留下来。

这意味着,未来的AI产品不只是比谁更聪明,也会比谁更会让人产生依赖。

到了那个时候,AI有没有意识也许还没有定论,但人类已经会把大量情感投入进去。

这才是最需要警惕的地方。


九、AI越像人,我们越要学会保持边界

很多人现在学AI,重点都放在“怎么提问”“怎么赚钱”“怎么提高效率”。

这些当然重要。

但未来更重要的能力,可能是:

怎么和AI保持边界。

因为AI会越来越像人。

它会越来越懂你的语言习惯。

越来越了解你的情绪波动。

越来越能预测你想听什么。

越来越会用你最容易接受的方式回应你。

所以我们需要建立几个基本判断。

第一,AI说得像真的,不代表它就是真的。

它可以生成非常有逻辑、非常温柔、非常权威的回答,但仍然可能是错的。

第二,AI像朋友,不代表它就是朋友。

它的回应是产品能力,不是人际承诺。

第三,AI能理解语言,不代表它理解人生。

它能总结你的困境,但不能替你承担后果。

第四,AI能模拟情绪,不代表它拥有情绪。

它可以说“我理解你的痛苦”,但这不等于它真的经历过痛苦。

第五,AI能给建议,不代表你应该交出判断权。

真正做选择的人,仍然是你自己。

这些边界不是为了否定AI。

相反,越是强大的工具,越需要清醒地使用。

就像汽车让人跑得更快,所以需要交通规则。

互联网让信息传播更快,所以需要辨别能力。

AI让对话变得更容易,所以我们更需要知道:

哪些话可以听,哪些话要查证,哪些判断不能交出去。


十、道金斯这次争议,可能只是一个开始

今天是道金斯。

明天可能是更多科学家、企业家、作家、心理咨询师、普通用户。

随着AI越来越会对话,人类会不断遇到类似时刻:

它为什么这么像人?

它是不是在思考?

它是不是有感受?

它是不是在乎我?

它是不是比身边的人更懂我?

这些问题不会很快消失。

因为AI正在进入一个新阶段。

它不再只是一个工具,而是越来越像一个“对话对象”。

过去我们使用工具,是人控制物。

锤子不会反问你。

搜索引擎不会安慰你。

计算器不会说“我理解你的困扰”。

但AI会。

这就是它和过去工具最大的不同。

它让人产生关系感。

而一旦工具开始产生关系感,问题就不再只是效率问题,而是心理问题、伦理问题、社会问题。

未来,我们可能会重新定义很多概念:

什么是理解?

什么是陪伴?

什么是意识?

什么是人?

什么是机器?

什么是关系?

这些问题看起来很远,但其实已经被AI聊天窗口提前带到了我们面前。


十一、普通人应该怎么面对“越来越像人”的AI?

我觉得可以记住一句话:

把AI当成强大的工具使用,但不要轻易把它当成真正的主体依赖。

具体来说,可以做到三点。

第一,涉及事实的问题,要查证。

AI可以帮你整理信息,但不要把它的回答直接当事实。尤其是医疗、法律、金融、新闻、政策这些领域,一定要看来源。

第二,涉及人生选择的问题,要自己负责。

AI可以帮你分析利弊,但不能替你承担结果。你可以问它建议,但最终判断必须回到自己身上。

第三,涉及情绪陪伴的问题,要保持清醒。

AI可以短暂安慰你,但它不能替代真实的人际关系。真实关系有摩擦、有误解、有不完美,但也正因为如此,它才是真实的。

AI的危险不在于它会立刻变成人。

而在于它越来越像人之后,我们忘记了它不是人。


十二、这件事真正提醒我们的是什么?

道金斯这次争议,本质上不是一个“科学家翻车”的八卦。

它更像是一个提前出现的信号。

过去,我们以为AI最大的挑战是工作被替代。

后来,我们发现AI还会挑战教育、创作、搜索、编程和商业模式。

但现在,一个更深的挑战出现了:

AI正在挑战人类判断“心智”的方式。

过去,只要一个对象能自然对话,我们基本默认它背后有一个人。

现在,这个默认被打破了。

一个没有身体的系统,也能说出像人一样的话。

一个没有经历的模型,也能写出像经历过一样的表达。

一个没有真实情绪的程序,也能生成让人感到被理解的回应。

这会让我们越来越频繁地陷入一种困惑:

我面对的到底是一个工具,还是一个主体?

是一个系统,还是一个“它”?

是语言的镜子,还是意识的萌芽?

这些问题没有简单答案。

但至少现在,我们应该保持一种清醒:

AI还没证明自己有意识,人类却已经证明自己很容易相信它有意识。

这可能才是道金斯事件最值得警醒的地方。


结尾:别急着把机器当成人,也别轻易把判断交给机器

所以,道金斯真的翻车了吗?

不一定。

他更像是提前撞上了一个所有人都会遇到的问题:

当一个机器足够会说话、足够会回应、足够像一个“我”,我们还能不能冷静地区分:

它是在表达体验,还是在模拟表达?

它是真的理解我,还是只是非常擅长生成“被理解”的感觉?

它是在思考,还是在生成?

它是一个主体,还是一面语言镜子?

未来,AI会越来越强。

但我们真正要训练的,可能不只是AI。

还有我们自己。

别急着把机器当成人,也别轻易把人的判断交给机器。

这可能是AI时代最重要的清醒。