把选择权全部交给AI?拆解《大数据时代》作者2024年新书《护栏:在时代引导人类决策》,揭开时代的决策陷阱!

今天,我们将运用莫提默·艾德勒在**《如何阅读一本书》中倡导的“分析阅读”法,为您深度拆解这本由普林斯顿大学出版社于2024年重磅推出的前沿巨著——《护栏:在AI时代引导人类决策》(Guardrails: Guiding Human Decisions in the Age of AI)。
【关于作者与出版信息】本书由两位全球顶尖的科技与法律专家合著:
- 乌尔斯·加瑟(Urs Gasser): 慕尼黑工业大学教授,曾任哈佛大学伯克曼·克莱因互联网与社会中心执行主任。
- 维克托·迈尔-舍恩伯格(Viktor Mayer-Schönberger): 牛津大学教授,他更为中国读者熟知的身份,是风靡全球的畅销书**《大数据时代》**的作者。本书于2024年由普林斯顿大学出版社出版。两位作者强强联手,跳出了“技术万能论”的盲目崇拜,重新审视了在AI狂飙突进的时代,人类该如何构建合理的制度与社会“护栏”来保护我们的未来。
让我们透视全书骨架,提炼核心观点,结合生动的真实案例,带您获取一份AI时代的“人间清醒”!
- 破除迷信(第1-5章): 审视人类决策的缺陷,剖析为什么纯粹的技术手段(如算法过滤假新闻、自动驾驶、智能合约)无法解决深层次的决策挑战,反而会带来僵化与偏见。
- 重塑原则(第6-7章): 提出构建优秀“护栏”(Guardrails)的三大核心原则:个人赋能、社会锚定、鼓励学习,并增加了一个至关重要的维度——“自我克制”(Self-Restraint)。
- 真实案例与未来(第8-10章): 通过水资源管理、维基百科、网络安全等案例,展示如何将技术作为拼图的一部分(而非全部)融入社会护栏,以应对充满不确定性的未来。
观点一:护栏(Guardrails)不是监狱的高墙,而是引导的缓冲带
优秀的社会护栏(如法律、道德、检查清单)是在个体选择与社会输入之间建立接口。它引导我们做出好决策,但不剥夺人类的选择权(Human Volition)。
观点二:AI正在带来“决策单一定植”(Decisional Monoculture)
机器只会沿着现有的路径寻找更高效的方法,却永远无法像人类那样通过试错和“做梦”来开辟全新的道路。对不可改变性的盲目崇拜,是想象力的死敌。
观点三:“干代码”永远无法取代“湿代码”
法律的弹性(Elasticity)允许我们在环境巨变时进行重新协商甚至“合法毁约”,而僵硬的机器代码在面对黑天鹅事件时只会导致系统崩溃。
个人赋能(Empower individuals,不取代人类意愿)、社会锚定(Socially anchored,扎根于社会互动而非黑箱代码)以及鼓励学习(Encourage learning,允许修正和迭代)。此外,系统还必须具备“自我克制”(Self-restraint)的能力,懂得在某些情况下不过度干预,为未来留下弹性空间。
🔍 第三步:典型案例映射(Typical Cases)
新知反转: 没有任何一台以“赢得比赛”为优化目标的AI会做出这样的决策。机器的训练数据只会告诉它“立刻爬起来加速是最优解”。但正因为人类拥有机器所没有的共情与打破常规的想象力,才创造了超越规则的伟大瞬间。
新知反转: 如果使用机器自动执行的“智能合约(干代码)”,系统会无情地判定这是“鲨鱼肉”交易并强行交割。但人类法官(湿代码)判定,既然双方最初的真实意图都是买卖“鲸鱼肉”,那么就该按照鲸鱼肉的意图来裁决,最终买方获得了赔偿。法律保护了人类的真实意图,体现了无与伦比的弹性。
新知反转: 尽管反歧视法禁止算法将“种族”作为输入变量,但机器通过分析申请人的居住邮编、消费习惯等海量“替代变量”,依然完美地继承并放大了美国社会历史中深植的种族偏见。这证明了,如果不改变深层的社会结构(社会护栏),仅仅指望引入AI算法来解决决策公平性问题,只是一种技术上的自我欺骗。
- “Data-driven machine learning is an adulation of immutability, the anathema of imagination.”(数据驱动的机器学习是对不可改变性的阿谀奉承,是想象力的死敌。) —— 一语道破当前AI的本质局限。
- “Guardrails are the interface between a person’s choice and the input of society.”(护栏是一个人的选择与社会输入之间的接口。) —— 重新定义了规则与自由的关系。
- “The computer gets lessons, not laws.”(计算机获得的是教训,而不是法则。) —— 精准概括了机器学习并非建立在真正的理解之上,而是对历史数据的拟合。
- “We might want to think more in terms of markets of rules than a hierarchy of them.”(我们或许更应该从规则市场的角度来思考,而不是从规则的等级制度来思考。) —— 在复杂多元的社会中,单一自上而下的算法统治注定失败。
技术崇拜者总是希望用算法消除一切人类决策的失误(比如自动驾驶消除车祸、算法消除错判)。但如果我们把所有的选择都交给追求绝对“正确”的机器,我们就失去了“决策的多样性”。人类之所以能进化,正是因为有一些“固执的笨蛋”愿意选择一开始看起来效率极低、违背常理的路径(比如放弃成熟的马车去研发早期笨重的蒸汽机)。保留犯错的空间,就是保留创新的火种。
面对假新闻、系统性歧视等棘手难题,我们总想一键部署某个AI工具来解决。但作者提醒我们,无论是“知识共享”(Creative Commons)协议的成功,还是维基百科的繁荣,其核心都不在于其底层的网络技术,而在于它们构建了一个充满活力的社会共识、参与机制与人工审核体系。技术必须被嵌入到人类社会的“护栏”中充当辅助,而不是越俎代庖成为主人。
AI的时代,并不是人类交出方向盘的时代,而是人类更需要精心设计“护栏”的时代。
互动时间: 在你的生活中,有没有遇到过被“死板的算法”或“智能客服”逼疯,反而怀念“人类通融性”的时刻?你认为在未来,什么样的决定必须由人类亲自来做?欢迎在评论区留下你的高见!👇
(觉得这篇文章有深度,别忘了点击*“在看”与“分享”**,让更多人看到在AI时代保持人类清醒的智慧!)*
夜雨聆风