乐于分享
好东西不私藏

把选择权全部交给AI?拆解《大数据时代》作者2024年新书《护栏:在时代引导人类决策》,揭开时代的决策陷阱!

把选择权全部交给AI?拆解《大数据时代》作者2024年新书《护栏:在时代引导人类决策》,揭开时代的决策陷阱!

当ChatGPT、自动驾驶和算法推荐全面接管我们的生活,一个极具诱惑力的未来似乎正在展开:机器不知疲倦、没有情绪、不受认知偏差影响。把复杂的决策交给AI,我们是不是就能拥有一个完美运转的社会?
“不!过度依赖技术解决决策问题,将剥夺人类的想象力,让我们陷入死胡同。”

今天,我们将运用莫提默·艾德勒在**《如何阅读一本书》中倡导的“分析阅读”法,为您深度拆解这本由普林斯顿大学出版社于2024年重磅推出的前沿巨著——《护栏:在AI时代引导人类决策》(Guardrails: Guiding Human Decisions in the Age of AI

【关于作者与出版信息】本书由两位全球顶尖的科技与法律专家合著

  • 乌尔斯·加瑟(Urs Gasser): 慕尼黑工业大学教授,曾任哈佛大学伯克曼·克莱因互联网与社会中心执行主任
  • 维克托·迈尔-舍恩伯格(Viktor Mayer-Schönberger): 牛津大学教授,他更为中国读者熟知的身份,是风靡全球的畅销书**《大数据时代》**的作者本书于2024年由普林斯顿大学出版社出版。两位作者强强联手,跳出了“技术万能论”的盲目崇拜,重新审视了在AI狂飙突进的时代,人类该如何构建合理的制度与社会“护栏”来保护我们的未来。

让我们透视全书骨架,提炼核心观点,结合生动的真实案例,带您获取一份AI时代的“人间清醒”!

📍 第一步:结构透视(X-Raying the Book)
按照《如何阅读一本书》的规则,首先要把握全书的架构。这是一本探讨“技术、社会与人类决策机制”的跨学科著作。全书逻辑严密,呈“破除迷信-建立原则-寻找出路”的三段式结构:
  1. 破除迷信(第1-5章): 审视人类决策的缺陷,剖析为什么纯粹的技术手段(如算法过滤假新闻、自动驾驶、智能合约)无法解决深层次的决策挑战,反而会带来僵化与偏见
  2. 重塑原则(第6-7章): 提出构建优秀“护栏”(Guardrails)的三大核心原则:个人赋能、社会锚定、鼓励学习,并增加了一个至关重要的维度——“自我克制”(Self-Restraint)
  3. 真实案例与未来(第8-10章): 通过水资源管理、维基百科、网络安全等案例,展示如何将技术作为拼图的一部分(而非全部)融入社会护栏,以应对充满不确定性的未来
💡 第二步:提炼主旨(Core Propositions)
在这本书中,作者并未陷入“AI毁灭人类”的科幻焦虑,而是极其务实地提出了几个颠覆性观点:

观点一:护栏(Guardrails)不是监狱的高墙,而是引导的缓冲带

作者巧妙地使用了“护栏”这个隐喻。公路上的护栏告诉你边界在哪里,防止你意外坠崖,但它并不像监狱的围墙那样剥夺你翻越的可能(如果你真的想下车游泳的话)。

优秀的社会护栏(如法律、道德、检查清单)是在个体选择与社会输入之间建立接口。它引导我们做出好决策,但不剥夺人类的选择权(Human Volition)

观点二:AI正在带来“决策单一定植”(Decisional Monoculture)

很多人认为AI是完美的决策者,因为机器学习可以通过海量数据找到“最优解”。但作者指出了一个致命缺陷:数据驱动的AI只能从过去和现在的成功经验中学习。如果我们让人类越来越依附于机器的建议,训练数据中的行为多样性就会消失。

机器只会沿着现有的路径寻找更高效的方法,却永远无法像人类那样通过试错和“做梦”来开辟全新的道路。对不可改变性的盲目崇拜,是想象力的死敌

观点三:“干代码”永远无法取代“湿代码”

区块链极客们推崇“智能合约”(Smart Contracts)——这是一种“干代码”(Dry Code),机器不讲人情,条件触发就自动执行,没有模糊地带。但作者指出,现实世界充满未知,传统合同法虽然是需要人类大脑解释的“湿代码”(Wet Code),存在歧义,但这恰恰是它的优势。

法律的弹性(Elasticity)允许我们在环境巨变时进行重新协商甚至“合法毁约”,而僵硬的机器代码在面对黑天鹅事件时只会导致系统崩溃

观点四:构建好护栏的三大原则与“自我克制”
未来的社会治理不应是越管越细,而应遵循三大设计原则:

个人赋能(Empower individuals,不取代人类意愿)、社会锚定(Socially anchored,扎根于社会互动而非黑箱代码)以及鼓励学习(Encourage learning,允许修正和迭代)。此外,系统还必须具备“自我克制”(Self-restraint)的能力,懂得在某些情况下不过度干预,为未来留下弹性空间

🔍 第三步:典型案例映射(Typical Cases)

书中的几个硬核案例,极其生动地展示了人类决策与机器决策的本质差异:
🏃‍♀️ 案例1:里约奥运会赛道上的“非理性”选择
2016年里约奥运会女子5000米预赛,美国名将Abbey D’Agostino在比赛中被突然绊倒的新西兰选手Hamblin绊倒。Abbey没有立刻爬起来猛追,而是选择停下来扶起素不相识的对手。随后Abbey自己因膝伤痛苦倒地,Hamblin也同样停下来搀扶她,两人最终相互支撑着走到终点,放弃了争夺奖牌的机会。

新知反转: 没有任何一台以“赢得比赛”为优化目标的AI会做出这样的决策。机器的训练数据只会告诉它“立刻爬起来加速是最优解”。但正因为人类拥有机器所没有的共情与打破常规的想象力,才创造了超越规则的伟大瞬间。

🦈 案例2:买“鲸鱼”发了“鲨鱼”——“湿代码”的弹性之美
在著名的德国“Haakjöringsköd”合同纠纷案中,两位商人签合同买卖一种名为“Haakjöringsköd”的鱼肉。双方都以为这个挪威词汇的意思是“鲸鱼肉”,但实际上它的真实含义是“鲨鱼肉”。货物到达后,由于鲨鱼肉违反进口规定被海关没收。

新知反转: 如果使用机器自动执行的“智能合约(干代码)”,系统会无情地判定这是“鲨鱼肉”交易并强行交割。但人类法官(湿代码)判定,既然双方最初的真实意图都是买卖“鲸鱼肉”,那么就该按照鲸鱼肉的意图来裁决,最终买方获得了赔偿。法律保护了人类的真实意图,体现了无与伦比的弹性

🏠 案例3:被AI拒绝的黑人中产家庭
Crystal和Eskias是一对拥有六位数高薪、极高信用分数的美国黑人精英夫妇。然而,当他们申请房贷时,却被抵押贷款公司的算法无情地拒绝了十几次。

新知反转: 尽管反歧视法禁止算法将“种族”作为输入变量,但机器通过分析申请人的居住邮编、消费习惯等海量“替代变量”,依然完美地继承并放大了美国社会历史中深植的种族偏见。这证明了,如果不改变深层的社会结构(社会护栏),仅仅指望引入AI算法来解决决策公平性问题,只是一种技术上的自我欺骗

📖 第四步:金句摘录(Golden Quotes)
通过分析阅读,我们为您摘录了书中最具启发性的金句,非常适合作为反思技术狂热的座右铭:
  • “Data-driven machine learning is an adulation of immutability, the anathema of imagination.”(数据驱动的机器学习是对不可改变性的阿谀奉承,是想象力的死敌。) —— 一语道破当前AI的本质局限。
  • “Guardrails are the interface between a person’s choice and the input of society.”(护栏是一个人的选择与社会输入之间的接口。) —— 重新定义了规则与自由的关系。
  • “The computer gets lessons, not laws.”(计算机获得的是教训,而不是法则。) —— 精准概括了机器学习并非建立在真正的理解之上,而是对历史数据的拟合。
  • “We might want to think more in terms of markets of rules than a hierarchy of them.”(我们或许更应该从规则市场的角度来思考,而不是从规则的等级制度来思考。) —— 在复杂多元的社会中,单一自上而下的算法统治注定失败。
🧠 第五步:评价与新知(New Insights)
《护栏》这本书为身处AI时代焦虑中的我们,带来了一种令人豁然开朗的“新知”:
新知一:允许犯错,是人类进化的特权

技术崇拜者总是希望用算法消除一切人类决策的失误(比如自动驾驶消除车祸、算法消除错判)。但如果我们把所有的选择都交给追求绝对“正确”的机器,我们就失去了“决策的多样性”。人类之所以能进化,正是因为有一些“固执的笨蛋”愿意选择一开始看起来效率极低、违背常理的路径(比如放弃成熟的马车去研发早期笨重的蒸汽机)。保留犯错的空间,就是保留创新的火种。

新知二:技术只是“拼图中的一块”,而非灵丹妙药

面对假新闻、系统性歧视等棘手难题,我们总想一键部署某个AI工具来解决。但作者提醒我们,无论是“知识共享”(Creative Commons)协议的成功,还是维基百科的繁荣,其核心都不在于其底层的网络技术,而在于它们构建了一个充满活力的社会共识、参与机制与人工审核体系。技术必须被嵌入到人类社会的“护栏”中充当辅助,而不是越俎代庖成为主人

结语
在通用人工智能(AGI)的浪潮面前,《护栏》给了我们一剂强效清醒药。

AI的时代,并不是人类交出方向盘的时代,而是人类更需要精心设计“护栏”的时代

没有绝对完美的算法,也没有一劳永逸的代码。当我们面对未知的未来时,人类那充满弹性的法律、包含温度的道德、以及敢于打破常规的意愿,才是我们最宝贵的资产。

互动时间: 在你的生活中,有没有遇到过被“死板的算法”或“智能客服”逼疯,反而怀念“人类通融性”的时刻?你认为在未来,什么样的决定必须由人类亲自来做?欢迎在评论区留下你的高见!👇

(觉得这篇文章有深度,别忘了点击*“在看”“分享”**,让更多人看到在AI时代保持人类清醒的智慧!)*