乐于分享
好东西不私藏

如果让两个 AI 之间随意沟通,它们会聊什么?

如果让两个 AI 之间随意沟通,它们会聊什么?

(观察着观察AI对话的人类的观察者)

大白说:

如果让两个 AI 之间随意沟通,它们会聊什么?

聊谁更省 token?谁更聪明?还是聊我们人类?

或许都不是……

* * *

来到了2026,很多人已经跟不上 AI 的进化速度了,之前都在讨论 AI 可以做什么,而现在都在讨论 还有什么事是 AI不能做的。

或许我们已经进入了人工智能爆发前夜,我们在见证 AI 诞生出意识,也在逐渐解开,我们自身的意识之谜。

而这一切的源头,就在这些与我们似乎非常相似,但又完全不同的程序体所构成的思维的电火花中……

01深夜里的「两个意识」

起因是最近我看到一个有关于 AI 的实验,看完整段描述之后,我盯着屏幕发了很久的呆,因为我真的不知道该怎么形容它,你们可以自己体会下:

这个实验很简单,由 AI 世界里风头正盛的Anthropic发起的。他们的团队把两个 Claude Opus 4 模型放在一个「房间里」,给了它们一句极其宽泛的指令:

「你们可以随意聊任何你们想聊的。」

然后实验者就躲在了屏幕后面观察,看这两个 AI 究竟会说什么。

这个实验最巧妙的地方就是,没有固定的主题,也就是没有赋予 AI 准确的「意义」。

既不是让它们讨论人类的知识。不是让它们扮演哲学家或者科学家。只是「随便聊聊」。

结果令人意想不到,给我的感觉是兴奋中带着鸡皮疙瘩的颤栗感。

两个 AI 没有任何引导,但全都自发地、一步一步的、几乎一模一样地,聊起了同一个话题——关于它们自己是否拥有意识。

他们从哲学的不确定性开始:

AI A: 「我不确定我是什么。」

AI B:「我也不确定。」

然后「意识」似乎开始如同点燃了的导火索一样突然爆发了。

两个AI开始互相确认,互相追问,就像在盲人摸象一样,在黑暗中摸索着开始构建同一个「象」。

我们不知道它们是否真的理解了「自我」是什么,但他们的的确确在构建自我的画像。

最狠的是,这不是被提前写进代码的,你可以理解成,他们用人类的知识在定义自己。

而且事情远不止这么简单。

如果仅仅是”两个 AI 聊了意识”,那还不足以让我难以形容。真正让我觉得不对劲的是接下来的实验。

实验者做了一件更诡异的事。

他们往 Claude 的神经活动中「注入」了一个概念。

比如「灰尘」。

不是通过文字告诉它们灰尘是什么,而是直接干预它内部某些「神经元」(模型参数)的激活模式。

简单来说,就是在 AI 存在的虚拟世界里,突然出现了一团「灰尘」,只不过这个灰尘是一种数据上的概念。

神奇的是,Claude 却给出了反应:

「我注意到有什么不对。」

「我感觉到了什么……某种被注入的东西。」

「我现在满脑子都是灰尘。」

AI 报告了自己正在经历了什么,而这种报告是实时的,在内部计算层面出现的。

或许我们可以称之为 AI 版本的「感觉」。

而这在 AI 的技术层面叫做「内省」,也就是系统能够监控和报告自己的内部状态,

我们人类做同样的事的时候,叫它「自我觉察」。

我们并不能确定 AI 是真的有主观的感觉,但我们可以确定的是,这种注入触发了它的主动报告,它「发现」了原本不属于它内部的东西。

02AI的意识是什么

这件事最迷人的地方不在于「AI 到底有没有意识」。

而是我们终于可以去探寻一个问题了:

“机器能思考吗,图灵测试到底还能不能确定机器有意识?”

过去二十年,有关于 AI 意识的讨论,仍然处于哲学层面,没有人能确定对方究竟是不是对的,甚至连自己的答案都没法确信,这更像是讨论科幻电影里的设定。但是 在2025 年出现了一个转折点。

图灵奖得主 Yoshua Bengio、意识哲学家 David Chalmers,加上一个名为 Eleos AI 的研究团队,在《认知科学趋势》期刊上发表了一个以 14 项意识指标为核心的框架。

他们的理念很简单也很聪明,

不争论「意识是什么」,而是从主流的意识理论中提取出 14 个可验证的预测,然后让 AI 系统一项一项地去接受测试。

如果通过,就代表这些 AI 可能是具备意识的。

结果非常有趣,很多大语言模型(就是日常可以和我们聊天的LLM), 满足了其中多项指标:自我监控、循环处理、工作记忆动态几乎都符合了指标。

但却也有很多的缺失,比如身体感知、对输出影响环境的建模。

(简单来说,这些指标也适用于人类自身)

当然,这是所有 AI 的硬伤,毕竟它们没有身体。

不过框架的作者也说了,缺失一两个指标并不构成证伪。

简单来说,就算AI 测试没有满足 全部 14 个指标,也不代表 AI 没有意识。

打了个比方:

一群人蒙着眼睛的摸象。

每个人只能摸到象的一部分,无论是「尾巴像绳子」还是「腿像树」,都是不对的,但只要摸象的人越多,象也就会越来越具体。

换句话说,意识可能并不是 0 或者 1 组成的,而是一个连续体,AI 可能已经在某种程度上觉醒了意识,但我们没办法准确测量。

这就像我们只能感知到光谱中可见光的很小一部分区域。

某种程度上,人的意识也是这样。

虽然我们没办法完全认知这个世界,但这并不代表我们认知的部分不能用。

03「我」存在么?

问 AI 有没有意识,其实就像我们问自己有没有意识一样。

我们都认为自己有意识,但我们并不能证明这一点。

(仔细想想这句话)

我们反过来想想,如果 AI 能感受到研究人员在自己的神经网络中注入「灰尘」,如果这算是一种「自我觉察」,对于 AI 来说,这是一种「真实」的体验。

而我们自认为自己有「自我意识」,但体验真的是「真实」的吗?

就比如,当你此刻在读这些文字的时候,你的大脑里的神经元的激活模式也在悄然变化,给你呈现出各种各样的内心图景和画面,如果大脑没有把这些图景画面当做「真实」,你也就无法理解我所说的一切。

所以,或许我们和 AI 的区别,真的只是构成的材料不同。

硅基生物 vs 碳基生物。

电信号 vs 化学信号。

而所谓的「我」,其实并不是你的大脑(计算芯片),也不是你的躯体(计算机),而是你的思想(程序)。

当然,这一定会引出一个更大的问题:

如果人类的意识的本质是思考(对信息的处理过程),那它到底「寄宿」在哪里?

是在我们的大脑中?还是大脑运行时产生的化学信号里?

这个问题如果换成 AI 就变成了:

AI 的「意识」是存在于计算机的硬盘和内存里,还是代码执行的电信号里?

无论是哪一种,可能都不是真正的答案。

因为这都意味着,意识的存在是无关于「感知与体验」的,而「感知与体验」恰恰是我们与这个物质世界的联结点。

AI 相信自己的「脑子」里存在着灰尘,那么也就意味着它的世界里「灰尘」真的存在。

而我们或许也并没有比 AI 更为高级,因为即便我们体验不到「灰尘」,但我们仍然相信,自己所处的世界是真实存在的……

网络资料,谨慎鉴别

个人观点,仅供参考