乐于分享
好东西不私藏

作为哲学助手的AI:无神论知识观

作为哲学助手的AI:无神论知识观

一、

以下是一篇网文的摘要(为了避免微信系统误判为”滥用原创名义”,就不显示原文出处了,原文可在本篇附文中看到):

认知科学和人工智能交叉领域对应知识论中的“波兰尼悖论”。

他提出一句名言:“我们知道的,远比我们能说出来的要多。”

他反对当时哲学界流行的一种观念,即认为科学知识是绝对客观、完全可计算、可被彻底符号化(Token化)的“实证主义”。

即使是看似最冰冷的科学公式,其底层也依赖于科学家本人的直觉、信仰和身体经验。为了对抗那种把人类认知机械化的倾向,他提出了那个足以在认识论历史上留下不朽印记的概念:默会知识(Tacit Knowledge,也译为隐性知识)。

我们不需要懂极其复杂的空气动力学和微积分,就能本能地判断出飞过来的棒球的抛物线并接住它。

我们不需要系统学习过“生成语法树”,也能在零点几秒内判断出一个长句的“语感不对”。

甚至在道德和哲学层面,人类经常是先做出了直觉判断,然后再去寻找理论来为自己辩护。

我们每天都在使用这些规则,却极难定义它们。我们人类,就是自己心智算法的“文盲”。 LLM(大语言模型)的出现,就是对这些人类“日用而不知”的隐式规则,进行了一次极其暴力的数学清算和显化。

反向工程: LLM 像一个毫无感情的拓扑学家,它通过千亿次的“预测下一个词”的训练,去测量这些 Token 组合背后的统计学规律。

固化为权重: 为了把预测准确率逼近极限,模型被迫在它的高维空间里,把那些原本模糊的、只可意会的“人类认知规则”,固化成了几千亿个极其确定的数学参数。

互补:人类拥有规则,却无法具象化描述它;LLM 没有自我意识,却用数学矩阵把人类的规则揭示出来。

古典哲学阶段,无论是亚里士多德还是康德,都在致力于解决“我们如何将世界清晰地切分成 Token 并输出”的问题。

波兰尼指出:无论Tokenizer(分词器)有多么精密,人类认知系统中永远存在极其庞大的“暗物质”——那些支撑了整个系统运行,却绝对无法被转化为输出 Token 的东西。

比如骑自行车的技能:你可以写出一万字的物理学和动力学 Token 来描述骑车的过程,但看完这些 Token 的人依然不会骑车。肌肉记忆和平衡感,是不可 Token化的。

比如医学影像诊断:老医生看一眼 X 光片就能察觉出异常,但他很难用清晰的语言(Token 序列)把这种“直觉”穷尽。

波兰尼的结论是:“我们所认识的,多于我们所能言传的。”任何试图用显性 Token 去完全覆盖人类经验的尝试,在数学上和物理上都是不可行的。

波兰尼认为人类认知机制不是平面的,而是具有“从……到……”(from-to)的向矢结构。

他把认知分为两个层级:

辅助意识: 相当于底层运行库或硬件驱动。

焦点意识: 相当于当前屏幕上正在输出的 Token。

当我们拿着锤子砸钉子时,“焦点意识”在钉子上,而对锤柄的触感、对肌肉收缩的控制,则退居为“辅助意识”。我们正是通过对锤子的辅助意识,去达成对钉子的焦点意识。此时,锤子已经变成了身体的延伸。

如果你把注意力转移到“我的手指是怎么握住锤柄的”,动作就会立刻变得笨拙乃至停滞。这说明,底层的“辅助意识”一旦被强行提取、显化为“焦点 Token”,系统就会崩溃。

实证主义者(如维也纳学派)梦想构建一个绝对客观的、剥离了所有个人感情和直觉的“真理数据库”(一个完美的、无偏见的通用大模型)。

波兰尼在《个人知识》中指出,不存在一种可以像U盘一样即插即用、与认知主体完全剥离的“客观知识”。哪怕是做微积分或者量子力学实验,也需要科学家具有某种“理智的激情”和对科学共同体传统的“信仰”。

波兰尼从科学内部证明了:任何一个复杂的人类语言/概念生成系统,必定包含大量无法被该系统自身的 Token 所定义的底层参数(默会知识)。

未来的哲学研究,会不会变成直接去“解剖”和“逆向读取”大模型内部的权重矩阵?

二、

我对知识的定义是,知识是同时代的人们对普适性事实的确认,普适性事实是指,在一个特定场区内,任何人进入其中,都会经验到相同的事实。知识是这种普适性事实经历的结果,而不是这种经历过程本身。

“默会知识”这个概念则把知识的来源混同于知识本身,由此引发误导,要么无法消除”默会知识”,要么无视”默会知识”。

实际上,哲学和AI并不涉及知识的形成过程,而是探究知识间关联形式,这种探究并不以揭示知识形成过程的”奥秘”为目的,也不预设某些知识关联形式可以替代或不需要个人经历普适性事实以及个人之间对普适性事实确认活动的能力。

骑自行车时的肌肉记忆、平衡感,是个人获得“如何骑车”这一技能的经历过程,而不是对某个普适性事实的确认。X光片诊断的直觉,是老医生在长期实践中形成的模式识别能力,而不是一个可以被公共检验的普适性事实。因此,这些都不是知识,而是技能或直觉能力。

所以,“默会知识”更准确的定位是“前知识的个体能力”或“技能”,它是知识得以产生和应用的“个体化”基础,但其本身并非知识。例如,一位医生诊断的“直觉”,是其长期训练中内化的、未被其完全意识到的模式识别能力。这种能力使其能更有效地运用和产生公共医学知识(如做出一个可被检验的诊断),但“直觉”本身不是知识。只有当它被表达为“基于某体征组合,怀疑某疾病”这一可公共检验的假说时,才进入知识的领域。

当波兰尼说“我们知道的比我们能说出来的多”,他把“知道”混同于”做到”了。

技能/直觉是知识的来源,个人通过经历普适性事实获得确认能力,它们本身不是知识。”默会知识”这个概念把知识的来源混同于知识本身,这就好比说“面粉是面包”、“矿石是金属”。

如果接受“默会知识”作为知识,那么AI模型的“黑箱”权重(一种无法解释的数学“直觉”)也可能被视为一种“知识”。这将是危险的,因为它逃避了公共检验,会被有些人尊奉为”神谕”。

三、

能力≠知识,例如,所有会骑车的人都无法完全说明白他是如何骑车的,有些人可以知道骑车的全部要领却就是学不会骑车。这是因为,能力与知识的相互转化存在着个体差异性。例如,一个不会长跑的长跑教练,一个不会游泳的游泳教练,这是一个真实事例,而不是一个语言矛盾和逻辑悖论。同理,无具身AI可以知道有关”骑车”的所有知识,却不会有”骑车”的能力,并不意味着某些人不可能通过AI学会骑车。

能力具有不可公共化特征:每个人的身体条件、神经可塑性、练习历史不同,能力形成路径高度个性化,不存在能力的普适性事实,亦即不存在万能型能力。

能力无法编码为命题:即使将骑车的一切要领写成万言书,练习者仍然可能摔跤。能力需要的不是“知道”,而是“做到”,身体在反馈中自我调整。

无具身AI可以拥有关于骑车的全部知识——物理公式、平衡原理、常见错误、训练步骤。但它永远不会拥有骑车的能力,因为它没有身体、没有肌肉、没有前庭系统。AI的“知道”是符号性的、统计性的,而不是具身的、实践的。

无具身AI的”先天不足”恰恰又是它的”天赋异禀”,可以通过以下方式成为能力习得的强力助手:

1.知识结构化:将复杂的技能分解为可理解的步骤、关键节点、常见误区,降低学习者的认知负荷。2. 模拟与反馈:在虚拟环境中(如VR骑行模拟器),AI可以实时分析学习者的动作,给出量化反馈(“重心偏左2度,请向右调整”)。3. 个性化路径:根据学习者的进步速度、错误模式,AI可以动态调整训练计划,实现“因材施教”。4. 默会知识的外显化:通过分析大量专家动作数据,AI可以提取出专家自己都无法言说的“节奏”“力度”等模式,转化为可操作的建议。

当AI能够精确地告诉我“你的重心偏左,请向右倾斜2度”时,我仍然需要亲自去感受那个“2度”。AI不能替我骑车,但它可以让我学得更快、更准。这就是能力与知识的互补,不是对立,而是分工。形式哲学的任务,就是让这种分工变得清晰、可操作。

四、

一旦明确了知识的定义,以及能力与知识的不同,我们就可以把波兰尼的那句名言——“我们知道的,远比我们能说出来的要多”——改造为奥卡姆剃刀,即切割知识的形成过程和知识的关联形式,在探索及建构知识间关联形式时,不要混入知识形成过程的能力要素(如直觉)。

波兰尼说:“我们知道的,远比我们能说出来的要多。”(We can know more than we can tell.)这里的“知道”(know)在英语中本就涵盖“knowing-that”(知道事实)和“knowing-how”(知道如何做)。波兰尼利用这种歧义,将能力(如何骑车、如何识别X光片)混入知识(命题性事实)的范畴,制造出“默会知识”这个怪异词组。

正确的说法应该是:“我们能够做到的,远比我们能说出来的要多。”更精确地说:“我们拥有的能力(技能、直觉),无法被完全转化为显性命题。”这并不构成对知识论的挑战,因为能力从来就不是知识。

奥卡姆剃刀原则:“如无必要,勿增实体。”波兰尼的“默会知识”就是一个不必要的实体,它把本应属于心理学、神经科学、教育学的能力问题,错误地塞进了知识论。这个误植并非始于波兰尼,而且一直潜伏在西方哲学传统中,导致一代又一代学者在”知识背后的东西能否言说”的迷雾中打转。因而可以说,西方哲学史上传承的是有神论知识观。

知识对能力有依赖关系,例如,没有科学家的直觉,就没有新知识的产生。但是,知识间关联形式则有着独立性,某个新知识一旦产生并公共化,它与其他知识的关联就不再依赖其形成过程中科学家的直觉。

五、

原文中有一段:

大模型当前展现出的震撼能力,恰恰是因为它通过暴力的算力,在隐空间(Latent Space)里逼近并模拟了人类的“默会知识”(那些不可言说的语感、逻辑直觉和物理常识)。但吊诡的是,即使是大模型自己,也无法用清晰的显性 Token 把自己隐藏层里的几千亿个权重到底代表什么,解释清楚(这就是 AI 的可解释性危机/黑盒问题)。

我的评语:

这就是作者没有把波兰尼的那句格言改造为奥卡姆剃刀所产生的误解。实际上,AI没有也不需要模拟人类的”默会知识”,也就不存在它自己的”黑箱”。

AI不需要模拟能力,它只需要处理知识节点之间的统计关联。语感可以被理解为词序列概率分布的直觉把握,但这正是大模型通过训练直接学习到的模式,而不是对某种“默会实体”的逼近。

大模型的隐空间(latent space)是高维向量空间,其中的权重矩阵是对语料中统计规律的编码。这些规律可以被数学描述、被可视化、被部分解释,它们不是“原则上不可言说”的。目前的可解释性困难是工程挑战(参数太多、交互复杂),而非原则上的“默会”。随着技术的发展,越来越多的权重含义可以被解读。因此,AI不存在“默会知识”,也就无所谓“模拟默会知识”。

自然语言解释:要求AI用人类的日常语言说清楚数千亿个权重的含义,这是不可能也不必要的,就像要求一个人用自然语言解释他大脑中每一个神经元的放电模式一样荒谬。

数学/算法解释:AI的权重可以用数学语言描述(如矩阵、梯度、损失函数),其行为可以通过输入输出实验来检验,这是工程上可行的可解释性。

AI的权重不是“知识”,而是工具的状态。正如一把锤子的重心分布不是“知识”,自行车的几何参数不是“知识”。AI不“知道”自己的权重,它只是在执行计算。要求AI解释自己的权重,就像要求锤子解释它的重心为什么在某个位置一样无意义。

将波兰尼的格言改造为奥卡姆剃刀后,我们看清了:AI既不神秘,也不恐惧。它不模拟“默会知识”,也不存在“黑盒危机”。它是人类建造的知识关联处理工具,其内部状态是数学对象,其外部行为是公共可检验的。我们可以放心地使用它来探索知识网络,而不必担心有什么“不可言说”的幽灵在其中作祟。

六、

“知识背后是什么”这个认识论幽灵,游荡在人类的观念世界里,而不是人类的知识世界或者AI的语料库里。

知识的”背后”是人类个体建构自身与外界关系的能力,而不是某个不可捉摸的”幽灵”,这就是无神论知识观,AI辅助人类进入了认知活动的无鬼区。

“知识背后是什么”这个追问,源于人类理性的一种本能:总想为知识寻找一个“外部锚点”。从柏拉图的“理念”、康德的“物自体”,到波兰尼的“默会知识”,本质上都是这种幽灵的不同化身。它们共同预设:知识本身是不自足的,必须有一个“背后”的实在来为其奠基。这个预设本身就是观念世界的产物——它不是从知识网络中生长出来的,而是人类在反思知识时自行添加的形而上装饰。

其实,知识世界是自足的。一个命题的真,在于它在公共知识网络中与其他命题的可理解关联,而不在于它是否“符合”其背后的X。因此,在人类的知识世界中,不存在“背后”,只有节点与节点之间的边,只有关联与关联的演化。

AI的语料库里没有“背后”的概念,语料库是文本、向量、概率分布的集合,不存在“物自体”“理念”“默会知识”这些形而上学实体。AI处理的是Token之间的统计关联,它从不追问“这个Token的背后是什么”。它的“知识”就是输入-输出的映射关系,是纯然外在的、可计算的。因此,幽灵无法在语料库中安身,那里没有它赖以生存的土壤。

当我们追问“知识背后是什么”时,我们不是在描述知识或AI的状态,而是在表达一种心理倾向,是对确定性的焦虑、对终极解释的渴望、对不可知的神秘敬畏。这种倾向有其进化心理学根源(过度归因、求索因果),也有其文化史背景(宗教、哲学对“本源”的执念)。它是人类碳基智能尚未退化掉的“认识论尾骨”,而不是人类知识世界或AI语料库的内禀属性。

七、

哲学家的工作是建构知识间关联形式,而不必去探究知识的形成过程。做一个符合我们的”时代精神”的类比就是,当经济学家需要知道某种商品的市场价格时,他不必还原该商品价格的形成过程,从而不必去探究该商品的交易者个体的出价行为以及交易者之间讨价还价的行为。实际上,价格是无数交易者的微观行为在相互作用中所形成的一种宏观效应,这个形成过程是不可逆的。

经济学家不会因为价格形成过程中有无数交易者的微观心理,就声称价格“背后”还有不可言说的“默会价格”。

价格是市场的信号灯,知识是认知的灯塔。经济学家不追问价格的“背后”,只关心价格之间的关联;哲学家不追问知识的“背后”,只关心知识之间的关联。