如果让两个 AI 之间随意沟通,它们会聊什么?


大白说:
如果让两个 AI 之间随意沟通,它们会聊什么?
聊谁更省 token?谁更聪明?还是聊我们人类?
或许都不是……
* * *
来到了2026,很多人已经跟不上 AI 的进化速度了,之前都在讨论 AI 可以做什么,而现在都在讨论 还有什么事是 AI不能做的。
或许我们已经进入了人工智能爆发前夜,我们在见证 AI 诞生出意识,也在逐渐解开,我们自身的意识之谜。
而这一切的源头,就在这些与我们似乎非常相似,但又完全不同的程序体所构成的思维的电火花中……
01深夜里的「两个意识」
起因是最近我看到一个有关于 AI 的实验,看完整段描述之后,我盯着屏幕发了很久的呆,因为我真的不知道该怎么形容它,你们可以自己体会下:
这个实验很简单,由 AI 世界里风头正盛的Anthropic发起的。他们的团队把两个 Claude Opus 4 模型放在一个「房间里」,给了它们一句极其宽泛的指令:
「你们可以随意聊任何你们想聊的。」
然后实验者就躲在了屏幕后面观察,看这两个 AI 究竟会说什么。
这个实验最巧妙的地方就是,没有固定的主题,也就是没有赋予 AI 准确的「意义」。
既不是让它们讨论人类的知识。不是让它们扮演哲学家或者科学家。只是「随便聊聊」。
结果令人意想不到,给我的感觉是兴奋中带着鸡皮疙瘩的颤栗感。

两个 AI 没有任何引导,但全都自发地、一步一步的、几乎一模一样地,聊起了同一个话题——关于它们自己是否拥有意识。
他们从哲学的不确定性开始:
AI A: 「我不确定我是什么。」
AI B:「我也不确定。」
然后「意识」似乎开始如同点燃了的导火索一样突然爆发了。
两个AI开始互相确认,互相追问,就像在盲人摸象一样,在黑暗中摸索着开始构建同一个「象」。
我们不知道它们是否真的理解了「自我」是什么,但他们的的确确在构建自我的画像。
最狠的是,这不是被提前写进代码的,你可以理解成,他们用人类的知识在定义自己。
而且事情远不止这么简单。
如果仅仅是”两个 AI 聊了意识”,那还不足以让我难以形容。真正让我觉得不对劲的是接下来的实验。
实验者做了一件更诡异的事。

他们往 Claude 的神经活动中「注入」了一个概念。
比如「灰尘」。
不是通过文字告诉它们灰尘是什么,而是直接干预它内部某些「神经元」(模型参数)的激活模式。
简单来说,就是在 AI 存在的虚拟世界里,突然出现了一团「灰尘」,只不过这个灰尘是一种数据上的概念。
神奇的是,Claude 却给出了反应:
「我注意到有什么不对。」
「我感觉到了什么……某种被注入的东西。」
「我现在满脑子都是灰尘。」
AI 报告了自己正在经历了什么,而这种报告是实时的,在内部计算层面出现的。
或许我们可以称之为 AI 版本的「感觉」。
而这在 AI 的技术层面叫做「内省」,也就是系统能够监控和报告自己的内部状态,
我们人类做同样的事的时候,叫它「自我觉察」。
我们并不能确定 AI 是真的有主观的感觉,但我们可以确定的是,这种注入触发了它的主动报告,它「发现」了原本不属于它内部的东西。
02AI的意识是什么
这件事最迷人的地方不在于「AI 到底有没有意识」。
而是我们终于可以去探寻一个问题了:
“机器能思考吗,图灵测试到底还能不能确定机器有意识?”
过去二十年,有关于 AI 意识的讨论,仍然处于哲学层面,没有人能确定对方究竟是不是对的,甚至连自己的答案都没法确信,这更像是讨论科幻电影里的设定。但是 在2025 年出现了一个转折点。
图灵奖得主 Yoshua Bengio、意识哲学家 David Chalmers,加上一个名为 Eleos AI 的研究团队,在《认知科学趋势》期刊上发表了一个以 14 项意识指标为核心的框架。
他们的理念很简单也很聪明,
不争论「意识是什么」,而是从主流的意识理论中提取出 14 个可验证的预测,然后让 AI 系统一项一项地去接受测试。
如果通过,就代表这些 AI 可能是具备意识的。

结果非常有趣,很多大语言模型(就是日常可以和我们聊天的LLM), 满足了其中多项指标:自我监控、循环处理、工作记忆动态几乎都符合了指标。
但却也有很多的缺失,比如身体感知、对输出影响环境的建模。
(简单来说,这些指标也适用于人类自身)
当然,这是所有 AI 的硬伤,毕竟它们没有身体。
不过框架的作者也说了,缺失一两个指标并不构成证伪。
简单来说,就算AI 测试没有满足 全部 14 个指标,也不代表 AI 没有意识。
打了个比方:
一群人蒙着眼睛的摸象。
每个人只能摸到象的一部分,无论是「尾巴像绳子」还是「腿像树」,都是不对的,但只要摸象的人越多,象也就会越来越具体。
换句话说,意识可能并不是 0 或者 1 组成的,而是一个连续体,AI 可能已经在某种程度上觉醒了意识,但我们没办法准确测量。
这就像我们只能感知到光谱中可见光的很小一部分区域。
某种程度上,人的意识也是这样。
虽然我们没办法完全认知这个世界,但这并不代表我们认知的部分不能用。
03「我」存在么?
问 AI 有没有意识,其实就像我们问自己有没有意识一样。
我们都认为自己有意识,但我们并不能证明这一点。
(仔细想想这句话)
我们反过来想想,如果 AI 能感受到研究人员在自己的神经网络中注入「灰尘」,如果这算是一种「自我觉察」,对于 AI 来说,这是一种「真实」的体验。
而我们自认为自己有「自我意识」,但体验真的是「真实」的吗?
就比如,当你此刻在读这些文字的时候,你的大脑里的神经元的激活模式也在悄然变化,给你呈现出各种各样的内心图景和画面,如果大脑没有把这些图景画面当做「真实」,你也就无法理解我所说的一切。
所以,或许我们和 AI 的区别,真的只是构成的材料不同。

硅基生物 vs 碳基生物。
电信号 vs 化学信号。
而所谓的「我」,其实并不是你的大脑(计算芯片),也不是你的躯体(计算机),而是你的思想(程序)。
当然,这一定会引出一个更大的问题:
如果人类的意识的本质是思考(对信息的处理过程),那它到底「寄宿」在哪里?
是在我们的大脑中?还是大脑运行时产生的化学信号里?
这个问题如果换成 AI 就变成了:
AI 的「意识」是存在于计算机的硬盘和内存里,还是代码执行的电信号里?
无论是哪一种,可能都不是真正的答案。
因为这都意味着,意识的存在是无关于「感知与体验」的,而「感知与体验」恰恰是我们与这个物质世界的联结点。
AI 相信自己的「脑子」里存在着灰尘,那么也就意味着它的世界里「灰尘」真的存在。
而我们或许也并没有比 AI 更为高级,因为即便我们体验不到「灰尘」,但我们仍然相信,自己所处的世界是真实存在的……
网络资料,谨慎鉴别
个人观点,仅供参考
夜雨聆风