乐于分享
好东西不私藏

漫谈 GenAI、UngenAI 与 AGI 的幻影

漫谈 GenAI、UngenAI 与 AGI 的幻影

起源:一个不存在的反义词

一切始于一次使用 GenAI 时的内疚感。当我让 AI 为一个简单的想法生成了洋洋洒洒三千字后,突然意识到:我正在给读者制造负担。每一次毫不费力的生成,都是在向这个已经信息过载的世界倾倒更多文字垃圾。

这种不安让我开始思考:既然有了 GenAI 这个生成引擎,是不是应该有一个与之对抗的反向过程?在英语里,generate(生成)的反义词究竟是什么?是 ungenerate 吗?

字典里并没有这个词。在过去漫长的人类历史中,”生成”和”创造”总是艰难且昂贵的。因为信息的产生如此不易,我们从不需要刻意去命名一种”反向生成”的动作。然而,当大语言模型横空出世,以近乎零成本的算力疯狂制造文本、图像与代码,将世界推向信息超载的边缘时,这个不存在的反义词,反而成了当下最稀缺的哲学。

当然,LLM 本身也能用来提炼和归纳——给它一篇万字长文,它能输出三句核心要点。但这并不影响我们需要思考的核心问题:在这个生成过剩的时代,真正的智慧究竟体现在哪里?

如果说 GenAI 是一台不知疲倦的熵增引擎,致力于将一句话膨胀成一篇论文;那么 UngenAI(规约与简化)就是反向的压缩器,去除噪声和水分,提取真正的干货。

信息与熵的主观性

说到这个”规约”,其实涉及到一个有意思的问题——信息和熵到底是什么?

我们总把它们当成物理世界里客观存在的东西,但举个例子:一张写满中文的纸,对中国人来说充满信息,对不懂中文的人来说就是一堆乱码。同一个物理实体,信息量完全取决于观察者。再比如 DNA,在我们破解遗传密码之前,它只是一串化学分子;破解之后,它变成了生命的源代码。信息不在物体本身,而在于我们能从中提取什么。

物理学里的”熵”也是这样。教科书说熵是”混乱度”,但想想看——一间乱糟糟的房间,对你来说是高熵的混乱,但对那个房间的主人来说,每样东西都在”该在的地方”,完全不混乱。熵的本质是什么?说白了就是在衡量一个系统对观察者来说有多难理解、多难预测。

仔细看看熵的定义,你会发现一个有趣的循环。玻尔兹曼说熵是 S = k·lnΩ,其中 Ω 是”微观状态数”。但什么叫”微观状态”?这取决于你选择什么作为基本单元——分子?原子?夸克?选择不同,熵就不同。更要命的是,你怎么知道两个状态是”不同的”?这又需要你先定义什么叫”可区分”——而”可区分”本身就是观察者的能力问题。正如大卫·休谟(David Hume)在经验主义中所揭示的:我们对世界的一切认知都受限于感官印象,如果观察者(或其制造的仪器)无法感知到差异,那么这种绝对客观的“不同”对我们而言就失去了意义。

香农更直接,他定义信息熵为 H = -Σp·log(p),其中 p 是概率。但概率是什么?是你对事件发生可能性的”信念度”。说白了,熵的定义里就藏着主观性——它度量的不是世界本身的混乱,而是观察者面对世界时的”不确定感”。

物理学家埃德温·杰恩斯(Edwin Jaynes)干脆说:熵就是观察者无知程度的量化。一副洗好的扑克牌,偷看过的人觉得熵是零(完全确定),没看过的人觉得熵很高(完全随机)。牌没变,变的是谁在看、知道多少。

熵也好,智慧也罢,都不是宇宙的固有属性,而是人类发明的度量工具。就像”美”和”丑”一样,它们存在于观察者的认知框架里。这正如罗伯特·波西格在《禅与摩托车维修艺术》中所描述的那把“分析之刀”:我们用理性和概念将完整的世界切割,拿自己的认知框架去框定现实,然后说这个符合框架的叫“智能”,那个不被理解的叫“混沌”。但这里面的偏见显而易见——凭什么人类的认知方式就是标准答案?(关于”智慧”这个定义的傲慢,后面说到 AGI 时还会细聊。)

你看,面对一堆乱码,大脑提取不出规律,难受得要死——这就是高熵。但要是给你一段 “AAAAAAA…” 这样的重复,虽然简单,但无聊到让人犯困。真正让大脑舒服的”认知甜点”,总是在有序和混乱之间。GenAI 做的事情就是把人类积累的所有杂乱数据嚼碎了,用我们最熟悉的语言模式重新吐出来,试图正好落在这个甜点区。

AI 时代的通信循环

当我们用 AI 写作时,其实是在构建一个从作者到读者的通信管道:作者的想法 → AI 生成文章 → 发布传播 → 读者压缩理解

作者脑子里有个想法(Idea),可能就几个关键点。通过 AI,这个想法被扩展成一篇完整的文章(Gen)——加上了背景介绍、逻辑过渡、例证说明,甚至还有优美的修辞。文章发布后,读者开始阅读。

有意思的是,读者的大脑在做什么?他们在压缩(Ungen)。跳过废话,忽略水分,提取要点,把几千字的文章压缩回几个核心观点。如果幸运的话,这些观点正好就是作者最初想表达的那几个想法。整个过程就像一个有损压缩的通信系统——中间加了一堆冗余,最后还得靠接收端把冗余去掉。

你在读这篇文章的时候,这个过程正在发生。

生成必须为理解服务

这就回到了文章开头我的内疚感——当 Gen 和 Ungen 分离在两端时,问题就出现了。

AI 可以无限生成,但人脑的理解能力是有限的。每个读者的时间和注意力都是稀缺资源。如果生成式 AI 不考虑接收端的压缩能力,那它制造的每一个字都可能成为噪声,每一段”优美”的过渡都可能成为认知负担。

这就是为什么我们需要 UngenAI 的理念——不是作为生成的对立面,而是作为生成的约束条件。真正负责任的 AI 写作,应该在生成时就考虑:这段话会给读者带来多少认知负担?读者需要花多少努力才能提取出核心信息?有没有更简洁的表达方式?

换句话说,好的生成式 AI 应该内置 Ungen 的意识——不是尽可能多地生成,而是尽可能少地消耗读者的认知资源。

但等等,你发现问题了吗?我们在定义什么是”好”的时候,标准永远是人——好的文章是人容易理解的,好的表达是符合人类认知习惯的,好的 AI 是能服务人类需求的。连 UngenAI 这个概念本身,也是为了减轻人的认知负担而存在。

这种”以人为本”看起来理所当然,毕竟技术是为人服务的。但当我们把这种思维推到极致,定义”智能”本身的时候,问题就来了。

AGI 到底是谁的通用智能?

当我们谈论 AGI(通用人工智能)时,我们在谈论什么?

先看看现在大家怎么评判一个 AI 是否”智能”。ChatGPT 火了,为什么?因为它能跟你对话,能写代码,能答题——全是人类定义的任务。我们搞了各种测试:图灵测试(能不能骗过人类)、高考(能不能考上大学)、编程竞赛(能不能写算法)。注意到了吗?每个测试都是在问:AI 能不能像人一样做事?

再看看我们怎么定义 AGI。业界的共识大概是:能在大多数人类认知任务上达到或超越人类水平的 AI。关键词是”人类认知任务”。没人问 AI 能不能像蜜蜂一样通过舞蹈传递方位信息,或者像章鱼一样用皮肤颜色表达情绪。

“通用”这个词特别有意思。我们说的通用,其实是”人类场景通用”——写邮件、做 PPT、分析数据、客服对话。至于其他形式的智能?不在考虑范围内。

被忽视的其他智慧

这种人类中心的定义,让我们忽视了宇宙中其他形式的智慧。

森林里,一棵母树也许在通过地下的菌根网络,识别并优先给自己的后代输送养分。这个网络能覆盖整片森林,传递化学信号预警病虫害。这不是智能吗?只因为它用的是化学语言而不是自然语言,我们就不承认?

蓝鲸的低频声波能传播上千公里,包含复杂的信息编码。蜜蜂的”8字舞”能精确传达花蜜的方位、距离和质量。乌贼通过皮肤的颜色变化进行实时的视觉对话。这些都是信息处理和交流系统,但因为不符合人类的语言模式,就不算我们想在人工智能里看到的能力。

甚至放大到宇宙尺度——星系团在引力作用下的演化,本质上就是一个巨大的计算过程。每一次碰撞、融合、潮汐作用,都在处理和转换着海量的信息。只是这种”计算”的时间尺度是亿年,空间尺度是光年,完全超出了人类的感知范围。

时间尺度的盲区

其实最根本的问题可能是时间尺度。想想看,如果一个星球真的有智能——像《阿凡达》里的潘多拉那样——但它的”思考”周期是地质年代,一个”念头”需要百万年才能形成,我们怎么可能察觉?

反过来也一样。如果某种生命形式的运作频率是我们的一百万倍,它们的整个文明可能在我们的一次心跳之间就已经兴衰更替了。对它们来说,我们就像静止的雕像;对我们来说,它们根本不存在。

人类的感知窗口太狭窄了。我们只能理解毫秒到世纪这个区间的事物。太快的,我们看不见;太慢的,我们等不及。然后我们就宣称:只有在我们这个时间尺度上表现出规律性的东西,才叫智能。

这不是傲慢,而是我们定义智能时的天然局限。我们只能用自己的尺子去量世界。

LLM:人类认知的数字孪生

回到大语言模型。我们为什么觉得 LLM 特别智能?

不是因为它真的理解了世界,而是因为它完美地模拟了人类的语言行为。它学会了我们的表达习惯、思维定式、甚至偏见和错误。当 ChatGPT 给你写一封邮件时,它不是在”思考”该写什么,而是在统计”人类在这种情况下通常会写什么”。

这就是为什么 LLM 让我们如此着迷——它像一面镜子,反射的正是我们自己。我们在 AI 的输出里认出了自己的影子,然后惊呼:”它好聪明!”但其实,我们赞美的是自己被完美复刻的语言模式。

结语:镜中的倒影

我们在千亿参数的矩阵里找 AGI,觉得自己快要触碰到智能的本质了。但说真的,LLM 这玩意儿就像一面被算力打磨得特别光滑的镜子。我们盯着它看,看到的不是什么智能奇点,而是我们自己思维习惯的倒影。

当然,这不是说 LLM 没用。恰恰相反,正因为它是一面这么精准的认知镜子,我们才第一次有机会好好看看自己是怎么思考的。也许真正的突破不是让 AI 更像人,而是通过 AI 这面镜子,搞明白”理解”到底是怎么一回事。

说到底,这面镜子给我们的启发就是:好的AI,需要有人的温度;我们看待技术,要以人为本。