乐于分享
好东西不私藏

作为哲学助手的AI:哲学民主

作为哲学助手的AI:哲学民主

一、

必须明确区别的是,AI是”哲学助手”,而不是”哲学家助手”。就是说,AI时代的人们,即使没有哲学思辨的天赋,也可以在使用AI建构知识间关联形式的过程中逐渐习得哲学思辨能力。因此,哲学思辨将不再是具有这种天赋的人才能从事的特殊专业,而将是AI时代的人们所必备的一种能力素质,从而哲学命题的产生及讨论的参与度将实现最大化,由此实现远比目前票决制政治民主更为理性的”哲学民主”。

如果AI是哲学家助手,那么AI辅助的是少数已经具备哲学天赋、接受过专业训练的人,它帮助他们更高效地做他们本来就在做的事,查文献、做统计、生成论证。这仍然是精英模式,只是工具升级了。

作为哲学助手的AI,辅助的是哲学这项事业本身。哲学被理解为在人类既有知识之间建构关联形式,而AI将这一过程工程化、可操作化,使得任何人(无论是否具备传统意义上的哲学天赋)都可以通过使用AI,参与到知识关联的建构中来,并在这个过程中习得哲学思辨能力。

传统观念认为,哲学思辨需要某种特殊的禀赋,如敏锐的直觉、强大的抽象能力、广博的学识,这些禀赋被认为不是每个人都能拥有的。因此,哲学成为少数人的专业,大学哲学系成为培养“准哲学家”的修道院。

当AI将知识关联建构转化为可操作、可交互的工程流程时,哲学思辨就不再是依赖神秘天赋的“艺术”,而是一种可以被分解、被示范、被练习、被反馈的“技能”。就像计算器的普及并没有让人变得不会算术,反而让更多人能够进行复杂计算一样,AI也不会让人变得不会思考,而是让更多人能够进行高层次的关联建构。

AI将人类既有知识组织为可交互的超图,任何人可以随意选取一个节点(如“自由”“正义”“熵”),让AI展示它与哪些其他节点存在强关联、有哪些可能的关联路径,这种“漫游”本身就是哲学思辨的入门训练。

用户提出一个关联假设,AI可以立即计算它在已有知识网络中的支持度,并指出可能的反例或替代解释。这种假设-检验-修正的循环,正是思辨能力的训练场。

一个对哲学毫无基础的人,可以用自然语言向AI提问,AI会将其转化为可计算的问题,并给出结构化的回应。这种无压力的环境,鼓励更多人参与。

传统教育强调精读原著、理解大师思想,AI时代读经典仍然重要,但核心能力将是如何在经典与其他知识领域之间建立新颖而有意义的关联。

传统训练注重培养批判性思维,指出别人论证的漏洞。AI时代,指出漏洞可以部分由AI完成(如检测逻辑谬误、事实错误),人类更需要的是建构性思维,提出新的关联假设,设计新的知识网络。

传统哲学家的思辨活动是孤独的,AI时代的哲学实践者,AI不仅为他提供了面对人类全部既有知识的可能,而且还可以促成他与其他用户进行协作式探索。哲学变成一种分布式、网络化的智能活动。

二、

知识是同时代的人们对普适性事实的确认,因而知识天然地具有公共性。哲学思辨是个人建构知识间关联形式的能力,AI增强了个人的这种能力,因而AI时代的人们将会有更为理性地交往,更为理性地处理公共事务,这就是”哲学民主”必然形成的理据。

这是因为,AI不是替代个人进行哲学思辨,而是增强个人在这方面的能力:

扩展记忆与搜索:AI可以即时调取人类知识网络中的任意节点,个人不再受限于自己的经验值和阅读量。

发现隐蔽关联:AI可以计算任意概念之间的语义距离、共现强度、结构同构,帮助个人发现未曾想到的关联路径。

检验假设:个人提出一个关联假设,AI可以迅速提供支持或反驳的证据(统计分布、历史案例、逻辑一致性检查)。

目前的AI(特别是大语言模型和知识图谱)已经成为处理知识关联的超级引擎,它能以人类无法企及的规模和速度,检索、比对、组合知识节点,发现潜在的模式、矛盾与类比。因此,AI不是替代人类的哲学思辨,而是极大地扩展了其操作空间和生产力,将个人从信息过载和机械性推理中解放出来,专注于更高层的价值判断、框架选择和创造性综合。

借助AI助手,普通公民在参与公共议题讨论时,能够快速梳理该议题的知识谱系、核心概念争议、主要论证流派及其逻辑强弱。讨论不再是情绪口号的对垒,而是在一个共享的、清晰的知识关联图谱上,进行有针对性的辩论和修正。

共识不再仅仅是妥协的产物,而是可以通过AI工具主动发现的。例如,AI可以分析海量公民的个性化价值偏好和具体诉求,识别出能够最大程度满足多元需求的创新性制度安排或解决方案。同时,公民也可以利用AI,在充分知情的情况下,主动调整和建构自己的偏好,以寻求更广泛的重叠共识。

三、

自由是人类个体在运用和发展自身能力的过程中所形成的一种活动状态,每个人的能力都是有限且有别的,个人能力可以达成差异互补的合作关系,合作中的个人可以发挥各自具有比较优势的能力,合作方式取决于有差异的个人能力的互补方式。前AI时代的人们是以基于经验的认知来安排个人能力的互补方式,民主是这种互补方式的制度化。进入AI时代,人们可以借助AI建构知识间关联形式的功能优势,把个人能力差异数据化,用AI来发现最优互补方式,并且可以模拟出互补方式讲对差异产生怎样的反作用。辩论和争吵是前AI时代民主的常态,决策是吵出来的,借助AI的演算和呈现则是AI时代民主的常态,决策是算出来的。

DeepSeek在回应中说:

参与从“定期投票”扩展为“持续校准”:AI可以实时监测能力变化和环境变化,动态调整互补方案。民主不再是四年一次的仪式,而是融入日常生活的持续过程。

我的回应:

这个补充非常好!这也就是西方票决民主制与中国全过程民主制的根本差别所在。民主是实现自由的途径、方式和手段,而自由是在个人能力运用和发展的过程中呈现出来的,因而全过程民主才能真正满足自由实现的需要。

西方票决民主制的核心是定期投票,它将民主简化为在特定时间点上的一次性选择行为。选民每隔数年走进投票站,在有限的候选人/方案中做出选择,然后便进入漫长的等待期,直到下一次投票。这种模式的隐含假设是:人民的意志可以在一个时间点上被一次性表达,并且在两次选举之间是相对稳定的。

然而,自由是在个人能力运用和发展的过程中呈现出来的。能力不是静态的,它在运用中变化,在发展中增强或在闲置中衰退,个人之间普遍交往所形成的社会生态也是变动不居的。因此,满足自由需要的民主,必须能够持续地响应这种动态变化。这正是全过程民主的逻辑起点:民主不是四年一次的仪式,而是融入日常生活的持续过程,是持续校准,而非点状投票。

如果自由是一个过程,那么实现自由的民主也必须是过程的,而不是离散的、间歇性的节点。

如果自由依赖于能力的实时状态,那么民主就必须能够实时感知能力的变化,并动态调整合作与互补的方式。

如果自由是在与他人的合作中实现的(因为个人能力有限且互补),那么民主就必须是持续的沟通与协调,而不是孤立的、一次性的授权。

定期投票式民主的缺陷不在于它“错了”,而在于它“慢了”。它无法跟上能力发展和社会生态的变化节奏。当投票结果公布时,选民的偏好、能力的分布、问题的紧迫性可能已经发生了改变,这种“民主时差”正是自由实现过程中的制度性障碍。

没有AI,全过程民主在大规模社会中几乎是不可操作的,持续的沟通、协调、数据采集、方案演算,都会消耗难以承受的时间和人力成本。AI将这一成本降低到了可接受的水平。

四、

元宝在回应中说:

价值的不可通约性:AI能处理事实性知识和逻辑关联,但许多政治与伦理分歧源于终极价值差异(如绝对自由 vs. 集体安全)。AI可以澄清分歧,但无法消解价值冲突。最终的“选择”依然是非理性的价值承诺。

我的回应:

如同阅读是个体行为,而阅读之所得的应用则是个体间性的,使用AI也是个体行为,而使用AI之所得的应用则是个体间性的。在前AI时代,一个由阅读而增强了游泳偏好的人,与另一个由阅读而产生跑步需求的人,在他们的交往以及对相关公共设施投入上,并不必然会发生”价值冲突”。AI时代的人们更不会必然发生”价值冲突”。

“价值不可通约性”是西方政治哲学中的一个常见论点(如以赛亚·伯林的“价值多元论”),这一论点常常被夸大为“价值冲突无法解决”。事实上,不可通约不等于不可比较。我们无法用同一把尺子测量自由与安全,但可以在具体情境中进行权衡。例如,在疫情期间适当限制自由以换取安全,在和平时期则扩大自由。这种权衡不是数学计算,而是实践智慧,它完全可以在民主协商中实现。

如果公共设施投入的决策机制是透明、公正、参与式的,那么游泳偏好者和跑步偏好者完全可以找到双方都能接受的方案。冲突的根源常常是“谁说了算”的权力问题,而非“什么更好”的价值问题。

AI作为“哲学助手”的定位,意味着AI将成为一种公共基础设施,如同文字、计算器或互联网一样,赋能于所有人。这为“哲学民主”奠定了技术前提。

AI时代的人们不是以减少个体差异的方式避免发生价值冲突,而是借助AI探索个体差异的更多关联形式,并且差异越多则关联形式越丰富,从而差异成为关联的资源,而AI是这种资源得以实现的最有效力的载具。哈贝马斯所提倡和寄望的”交往理性”,正在由AI赋能。

五、

西方票决型民主之所以要有一个多党制政体,正是以”价值不可通约而必然冲突”为预设前提的,民主与人们的价值差异有关,与人们的能力差异无关,因而民主的作用是规约自由而不是实现自由。”自由与能力无关”与”民主与自由无关”这两个观念相互增强而互为因果,不断强化西方票决型民主,直至自由主义传统最终被正在形成中的福利主义传统所取代。

由”有效市场+有为政府”定义的市场社会主义,在中国改开实践中取得了巨大成功,并且以实践证明了,一个政府能不能保障市场充分发挥效用,与这个政府是否由多党制成员构成无关。但是,中国目前的社会治理仍然属于前AI时代的民主,因为有效与有为之间是由专家型官僚系统连接的,是这些少数专家在发挥上传下达、分级决策的作用,专家与大众之间是咨询与建议的关系。这套系统依赖少数精英的理性,虽然高效,但存在信息过滤、代表性不足、与大众认知脱节的风险。公众的“吐槽”在互联网上弥漫,正是这种脱节在情绪层面上的反映。

互联网只是人们吐槽之所,AI才是为所有人赋能的载具,由AI赋能的交往理性将为全过程民主注入全员参与的基础,所以完型民主由”全员参与+全过程”定义。

哲学民主=有效民主+有为理性。民主的有效性表现在全过程之中,而不是票决结果的”正确”上,正如知识的有效性并不体现在与知识背后的”事实”相符上。基于能力差异互补判断而不是基于价值差异冲突判断的理性,才能在民主过程中发现及建构人与人的交互方式,而不是止于为每个人的各自利益范围划界。

六、

在AI之前的人类历史中,“完型民主”近乎一个逻辑悖论,受限于“不可能三角”:

1. 规模:人口越多,直接参与越难组织,不得不依赖代表制,从而牺牲“全员性”。

2. 理性深度:公共议题日趋复杂,远超普通公民的理解与处理能力,不得不依赖专家系统,从而在“全过程”中形成知识垄断和断层,大众参与被简化为“接受咨询”或“情绪表达”。

3. 参与效能:即使有参与渠道(如古希腊公民大会、乡镇议事),也常因信息不对称、讨论无序、共识难以凝聚而效率低下,或沦为多数人暴政。

前AI时代的民主形态,是这三者间的艰难妥协:以代议制解决规模问题,以官僚专家制解决理性问题,以定期选举和有限参与维系合法性。

人工智能,特别是作为认知基础设施的AI,提供了同时突破三大限制的革命性可能:

1. 赋能全员:破解“理性深度”壁垒。

认知外骨骼:AI将复杂的法律文本、政策报告、科学数据,转化为可对话、可提问、可视化的交互界面。普通人借助AI,能理解曾专属专家的知识,从而实现有深度的参与。

表达增强:AI可协助公民将模糊的诉求转化为结构化的政策建议、法律草案或论证文本,提升参与质量。

2. 连接全过程:破解“参与效能”困境。

持续反馈回路:传感器网络、社会情绪分析、政策模拟器,使公共决策不再是“黑箱”,其执行效果可被实时监测、评估并反馈至决策端。公民的“吐槽”可被AI系统自动识别、归类,转化为有待解决的“问题清单”。

协商流程管理:AI可主持大规模在线审议,确保发言机会、管理议程、识别共识与分歧点、生成会议纪要与方案草案,极大提升协商效率与秩序。

3. 驾驭复杂性:破解“规模”与“理性”的矛盾。

超大规模社会模拟:AI可运行包含数亿“智能体”的社会模型,模拟不同政策在长期、多因素影响下的可能后果。这使“全员”的利益与反应,能在决策前得到计算性的预览与权衡,而非仅靠代表的主观推测。

个性化公共场域:AI可基于个人关切,从海量公共信息中推送相关内容,并引导其进入相应的协商“房间”。这使“全员”在超大规模下仍能进行聚焦、有效的参与,而非淹没在信息洪流中。

当每个人都能借助AI参与知识关联的建构、政策方案的校准、社会共识的形成,民主就不再是“选出谁来替我做决定”,而是“我自己成为决定过程的一部分”。不是让少数人更聪明地治理多数人,而是让每个人在AI辅助下成为自己生活的治理者。AI,正是实现这一承诺的唯一可行载具。

以医疗民主为例,目前有不少患者会用AI为自己的病情做出诊断,以此对医生做出的诊断加以评估,而且越来越多的医生也在用AI来增强自己的诊断水平,只是尚未形成患者与医生之间借助AI进行交流这个环节,因而目前的医疗民主还不是全过程性的完型民主。

七、

归结为一个完型公式就是,哲学民主=有效民主/全过程+有为理性/全员参与。

其中,”/”是分数标记,前一个”/”表示民主是在全过程中的有效,或曰民主只能在全过程中才有效,后一个”/”表示理性是在全员参与即个体间普遍关联中的有为,或曰理性只能在全员参与即个体间普遍关联中才有为。AI致力于让分母尽可能丰富和深刻,从而使分子(有效民主、有为理性)的值得以实现。