当现代治理开始失灵,AI究竟是解药,还是新的幻觉?
【本期金句】
-
治理的核心不在于数学最优解,而在于群体在不确定中共同选择并承担后果;
-
AI的「逻辑诚实」映照出它无法掌握群体对话中关乎权力与情感的人文本质;
-
治理的未来需要的不是更聪明的算法,而是一种更谦卑的智慧;
-
AI应是一面镜子,迫使我们凝视体制的深层矛盾,而非一把修复一切的手术刀
正文
现代组织正处于一种「系统性焦虑」中,信息极化、信任崩解与组织治理失灵的现象日益严重,而与此同时,人工智能的脚步声却愈发清晰。
我们不禁想问,当组织治理体系生病时,AI能否成为解药?我们是否可以借助这把技术手术刀,去修复一个本质上关乎人性与共同生活的缺失——这个提问本身可能就隐藏着最危险的假设。
一、2026:一场关于「逻辑诚实」的败北
2026年元月,我参与了一场特殊的AI与人类的辩论赛,题目是:有关人工智能对于现代治理是否利大于弊?
这场辩论不只是技术测试,更是一个冷峻的提醒。在辩论过程中,AI展现了强大的信息汇整力,但在对垒中却因“过于诚实”而显得气势不足,缺乏撼动对手的修辞张力与价值取向的动态博弈。这种逻辑上的诚实,反而映照出AI无法掌握群体对话中关乎权力与情感的人文本质。
而组织治理的魅力与挑战,往往存在于那些无法被算法穷尽的「非理性」坚持之中。
二、理性的幻梦:AI治理的三个愿景
支持AI介入现代治理的论述,通常建立在三个美好的理性愿景之上:
AI是超然的分析师:人类决策受困于认知偏误与情绪波动,但AI可以处理海量信息,以一致标准分析所有选项,成为「信息筛检器」,呈现政策的真实成本与长短期利益。
AI是政策的时光机:治理最大的困境是「未知的后果」,AI的模拟能力能为集体选择装上「预览功能」,在做出不可逆决定前,展示不同路径的未来图景与风险分布。
AI是共识的调谐器:在分化的社会中,AI可以分析意见频谱中的叠加与纠缠区,协助找出「可能共识的形状」,而非唯一的硬性解。治理不再是「非黑即白」的选择,而是在多种利益叠加态中寻求一种动态的平衡。
这些愿景指向一种诱人的可能:AI能改善现代治理的前端质量与快速分析资料。然而,若期待AI直接替人类做决定,那是对治理本质的误解。治理的核心不在于数学最优解,而在于群体在不确定中共同选择并承担后果。
三、算法的隐忧:当偏见被数位继承
AI并非从天而降,它继承了制造者的偏见与随机。这导致了两个核心问题:
偏见的数位继承:AI的训练数据镶嵌着社会既有的不平等。例如美国COMPAS系统在预测再犯风险时,即便设计之初要求不得纳入种族考量,却因训练资料源于长期存在差异的执法数据,导致非裔被告被误判为高风险的比率几乎是白人的两倍。这证明了「客观」的AI反而可能复制并固化歧视。
机率性的决策幻觉:当前AI是机率预测机器,而非逻辑推理主体。微小的参数扰动可能给出截然不同的「最优解」,让决策交付给随机性。2023年美国律师使用ChatGPT导致编造虚构判例的案例(纽约律师Steven A. Schwartz和Peter LoDuca在代表客户起诉Avianca航空公司时,向联邦法官提交的辩护文件中引用了多个由ChatGPT生成的根本不存在的案例),正是这种「技术幻觉」的警示。
四、透明性的悖论:失根的技术崇拜
区块链与智能合同曾被认为能实现「完全透明」的治理,每张选票可追踪,决策不可篡改。但2018年莫斯科的区块链表决实验却揭示了脆弱性:系统漏洞导致连结失效,甚至在投票结束后事实上消失。
这引发了深层反思:完全的透明可能抑制必要的探索性对话。当技术催生出的透明社会缺乏伦理根基时,现代治理就像失根的浮萍随风漂浮。
五、结语:AI应是镜子,而非手术刀
AI不会,也不能「解决」治理的危机,因为这本质上不是工程学问题,而是群体间的共识伦理问题。
然而,AI可以成为一面清晰的镜子,迫使我们凝视体制的深层矛盾:当我们期待AI消除偏见时,我们先要承认自身难以克服偏见;当我们用它模拟后果时,我们必须了解自己无可推卸的集体责任。然而对量子系统的测量行为,会导致其量子态发生不可逆的坍缩,同样AI 作为镜子的「观测」,是否也在改变集体的选择?
治理的未来需要的不是更聪明的算法,而是一种更谦卑的智慧——学会承认复杂性,并在技术提供的捷径中,始终清醒地追问:我们究竟是为了实现何种共同的「美好生活」?
如果您是2026年那场辩论赛的评判,您会支持AI的诚实,还是人类的复杂?欢迎留言分享您的看法。
关于本系列:作者利用量子启发式的方法论,探讨跨领域的治理思维。量子现代治理系列 持续更新,欢迎关注。
近年来张庆瑞教授在量子领域持续深耕,在中国台湾地区创立量子计算机暨信息科技协会,担任台大-IBM量子计算机中心主任及鸿海研究院量子科技咨询委员。
张庆瑞教授2022年所著《量子大趋势》一书由中国出版集团出版,是2023年科技畅销书之一。
夜雨聆风