当AI替我们选择之后:谁为后果负责?——从自由意志到 P 值理论
引言
2023 年,美国一名律师向法庭提交了一份由 ChatGPT 生成的法律摘要,其中引用 了六个根本不存在的判例。事发之后,这位律师被吊销执照,罚款五千美元。法官在判决书中写道: “律师的根本职责是确保提交给法庭的材料真实可靠,将这一职责外包给机器,本身就是失职。”
几乎在同一时期,一位依赖AI诊断系统的皮肤科医生将黑色素瘤误诊为普通痣。 患者三个月后癌细胞扩散,家属起诉医院。医院辩称: “AI系统的识别准确率达到97%,超过大多数人类医生。”家属则反驳: “但做出最终诊断决定的,难道不应该是人吗?”
这两个案件指向同一个困惑:当人工智能越来越深地嵌入人类的决策链条,当”执行”可以被外包给算法,”责任”应该落在哪里?
要回答这个问题,我们需要先拆解一个被长期忽视的事实:人的能力从来都包含两个维度。一个是做决定的能力——判断方向、权衡利弊、承担不可逆的选择;另一个是执行的能力——将决定转化为行为、收集信息、操作工具、完成目标。在 SPU 理论中,前者被称为P值(决断力),后者被称为S值(执行力)。
在漫长的农业社会和工业社会,P值和S值都牢牢地拴在人身上。一个木匠决定做 一把椅子,同时他也亲手锯木、刨料、组装。P值和S值合一,谁做事、谁负责, 一目了然。但在AI时代,S值可以被指数级地外包出去。算法可以写诗、可以诊 断、可以驾驶、可以交易,而人只需要按下一个按钮——甚至按钮都不需要按。
当S值离开人的身体,P值被迫裸露出来。而问题恰恰在于:我们从未认真思考过,裸露的P值是否足够承担全部的责任重量。
一、问题的显现:S值外包之后
让我们先直面AI介入后的责任困局。
当代社会中,AI作为S值(执行力)的替代者已经无处不在。在金融领域,高频交易算法每秒钟执行数千笔交易,人类交易员的角色从”操作者”退化为”监控者”。 在医疗领域,影像识别AI可以在几秒钟内标注CT片上的可疑病灶,放射科医生的角色从”读片者”转变为”审核者”。在司法领域,量刑辅助算法为法官提供刑期建议,法官的角色从”计算者”退化为”确认者”。
表面上看,这是一个效率的飞跃。人类摆脱了重复性劳动,可以将精力集中于”更高层次”的工作。但问题在于,当S值被外包,出错的链条也随之延长,而责任的归属却变得模糊。
2024 年,一辆配备最新自动驾驶系统的特斯拉在旧金山撞死了一名行人。事故调查发现,系统在撞击前 0.8 秒识别到了行人,但判断”避让风险高于撞击风险”,选 择了继续直行。车主当时双手并未离开方向盘,但注意力在手机上。最终的法律裁定是:车主承担主要责任,因为”自动驾驶系统仅为辅助工具,驾驶者始终保持对车辆的控制责任”。
这个判决看似合理,实则暴露了一个深层矛盾。如果系统”仅为辅助工具”,为什么它的决策权重足以覆盖人类驾驶者的本能反应?如果驾驶者”始终保持控制责任”, 为什么系统可以在未经明确授权的情况下做出”撞击优于避让”的计算?在这里,S值(AI的执行能力)已经强大到可以实质性地替代人的瞬时判断,但P值(人的决断责任)却被法律强行保留——不是因为P值真的在场,而是因为责任无处可去。
这就是S值外包之后的核心困境:执行能力和责任主体发生了分离。传统社会的逻辑是”谁决定、谁执行、谁负责”,三者在行动者身上合一。AI 打破了这种合一,却只把最轻的S值交给了机器,把最重的责任留在了人身上。这不是技术赋能,这是责任陷阱。
更深层的危险在于,随着S值越来越强大,人对P值的感知正在萎缩。当一个基金经理习惯了算法的推荐,他的独立判断能力会退化;当一个学生习惯了AI生成论文大纲,他的原创思考能力会钝化。S值的外包如果缺乏P值的自觉,最终会导致P值本身的消亡——不是被剥夺,而是被遗忘。
二、上溯:自由意志哲学到底在争什么
面对”谁负责”的困境,我们本能地诉诸一个古老的概念:自由意志。但这个概念在今天的语境中几乎成了哲学鸡肋——决定论者说它不存在,相容论者说它存在但无关紧要,普通人则干脆绕开它,直接讨论”谁该赔偿”。
如果我们暂时放下这些争论,回到哲学史的脉络中,会发现自由意志的讨论其实始终围绕一个核心问题:什么使人成为责任主体?
奥古斯丁在《论自由意志》中提出,上帝赋予人自由意志,使人能够选择善恶。恶的存在不是上帝的失败,而是人滥用自由意志的结果。这个论证的惊人之处在于:
奥古斯丁没有为自由意志寻找一个形而上学的根基,而是直接将它与责任绑定。自由意志之所以重要,不是因为它让人可以”随意选择”,而是因为它让人必须为自己的选择负责。在这里,自由意志不是特权,而是负担。
康德在《实践理性批判》中将这一思路推向先验层面。他认为,人在现象界中完全受自然因果律支配,每一个行为都有前因,在这个意义上人是不自由的。但人同时作为物自体存在,具有先验自由——一种不受因果链约束的自发能力。这种自由无法被证明,但也无法被否定。更重要的是,康德指出,道德法则的存在以自由为前提。如果人没有自由,那么”应当”就毫无意义——人不能为无法避免的事情承担责任。
康德的论证极为严谨,却也留下了一个裂缝:先验自由属于物自体,而人的日常行动发生在现象界。换句话说,自由意志在理论上成立,在实践中却无法被直接感知。这导致了一个尴尬的结论:我们只能在抽象的层面上宣称人是自由的,而在具体的行动中,我们又不得不承认人是被因果律决定的。
萨特试图弥合这个裂缝。在《存在与虚无》中,他宣称”存在先于本质”——人首先存在,然后通过自己的选择创造自己的本质。自由不是人的属性,而是人的存在方式。即使一个人声称”我不得不这么做”,他也是在自由选择将”必然性”作为逃避责任的借口。萨特的极端之处在于:他将自由与责任推向了绝对的等同——人拥有绝对的自由,因此必须承担绝对的责任。
萨特的论断在哲学上极具冲击力,但在现实中却难以落地。如果一个工人因为经济压力被迫接受危险工作,我们很难说他”自由选择”了这种处境。萨特会回应:他可以选择不接受,哪怕代价是饿死。但这种回应在道德上过于苛刻,在政治上也过于冷漠。绝对自由的理论在抽象层面成立,却在具体的社会结构中显得不切实际。
在分析哲学传统中,相容论者试图走一条中间道路。哈里·法兰克福提出的”层级意志”理论认为,自由的关键不在于是否被因果决定,而在于欲望之间是否存在层级关系。一个人可以有一阶欲望(”我想抽烟”),也可以有二阶欲望(”我希望自己不想抽烟”)。自由就是二阶欲望对一阶欲望的支配能力。丹尼尔·丹尼特进一步发展了这一思路,认为自由意志不需要形而上学的奇迹,它只是一种进化赋予我们的控制能力——我们想要的控制,就是我们拥有的自由。
相容论的贡献在于将自由意志从形而上学的高空拉回地面。它不再追问”人是否真的自由”,而是问”人拥有什么样的控制才足以承担责任”。但相容论也有盲区:它预设了控制的主体是人,控制的客体是人的行为。当AI介入之后,”行为”的界定本身变得困难。算法执行的交易,究竟是谁的行为?
回顾哲学史,从奥古斯丁到萨特,从康德到相容论者,两千年的争论可以归结为一句话:哲学一直在寻找将责任锚定在行动者身上的理由。这个寻找本身,就是P值理论的史前史。
三、盲区:传统哲学为难以回应AI时代
传统自由意志理论的共同预设是:决断者、行动者、责任者三者合一。奥古斯丁的罪人亲手作恶,康德的道德主体亲手遵行绝对命令,萨特的个体亲手做出选择。在这种框架下,”行动”是”决断”的自然延伸,”责任”是”行动”的必然后果。
AI的出现打破了这种合一。在自动驾驶的场景中,做出”继续直行”这一”决断” 的,是算法而非人类驾驶者;在AI辅助诊断中,做出”黑色素瘤概率较低”这一” 判断”的,是神经网络而非医生。传统哲学没有为这种”行动者与决断者分离”的情况准备理论工具,因为在此之前,行动者和决断者从未真正分离过。
我们可以将传统哲学的盲区归纳为三点:
第一,对”行动”的定义过于狭窄。传统哲学将”行动”理解为身体的物理运动或意志的直接实现。但在AI中介化的世界中,”行动”往往是一个多阶段过程:人设定目标(P值)→ AI生成方案(S值)→ AI行动方案(S值)→ 人监督或干预 (P值)。在这个链条中,哪一环构成”行动”?如果事故发生在执行阶段,责任应该追溯到方案生成阶段,还是目标设定阶段?传统哲学无法给出清晰的回答。
第二,对”控制”的理解过于简化。相容论者将自由等同于”控制”,但控制的含义在AI时代变得复杂。一个驾驶者”控制”一辆自动驾驶汽车,与一个人”控制”一把锤子,是完全不同的两种控制。锤子的行为完全由人的物理动作决定,而自动驾驶汽车的行为由算法在人的监督下自主决定。前者是直接控制,后者是委托控制。传统哲学没有区分这两种控制,因此也无法解释为什么委托控制中的责任归属如此困难。
第三,对”责任”的归因过于整体化。传统哲学倾向于将责任赋予一个完整的”人格”或”主体”。但在AI系统的开发和部署中,责任是被分散的:算法工程师设计模型,数据科学家训练参数,产品经理定义场景,终端用户触发执行。当事故发生时,传统哲学要求我们找到一个”最终责任人”,但现实中可能并不存在这样一个单一的个体。整体化的责任归因在AI时代显得力不从心。
这些盲区的根源在于:传统自由意志理论是为一个”人直接作用于世界”的时代准备的。当世界变得越来越复杂,当工具变得越来越智能,人不再是直接的行动者,而是成为了一个庞大系统中的节点。传统哲学没有为”节点化的主体”准备概念工具。
四、P值理论的介入:把责任重新锚定在人身上
P值理论不是对自由意志的简单重复,而是对其核心要素的当代提纯。在 SPU 框架中,P值(决断力)被拆解为三个相互关联的要素:抉择、行动、责任。这三个要素共同构成了人的主体性内核,也是责任归属的终极锚点。
抉择意味着在多个可能性中做出不可逆的选择。这里的”不可逆”是关键——如果一个选择可以随时撤回、无限修改,它就不构成真正的抉择。AI可以生成无数种方案,可以在毫秒之间切换策略,但AI本身不做出”不可逆”的选择,因为它不承担选择的后果。抉择的重量来自承担,而承担的前提是选择者必须是一个能够被追责的主体。
行动意味着将抉择转化为具体的指令或方向。在P值理论中,”行动”不等同于”亲手执行”。一个将军下达进攻命令是行动,一个程序员设定算法的优化目标是行动,一个医生在AI建议书上签字确认也是行动。行动的本质不是肌肉的收缩,而是意志的外化——将内在的决断投射到外在的世界。AI可以执行,但AI不能行动,因为AI没有意志可以外化。责任是P值最核心的要素,也是AI永远无法具备的能力。责任不仅仅是对后果的承担,更是一种可以被追责的义务关系。一个AI系统可以被”归因”(attribution),但不能被”问责”(accountability)。归因是因果分析,问责是道德判断。AI 可以被分析为事故的原因,但不能被道德地谴责。因为谴责预设了一个能够理解道德规则、能够感到羞耻、能够接受惩罚的主体——而这些恰恰是
AI 所不具备的。
P值理论的关键洞见在于:在AI时代,人的核心价值不在于执行能力(S值),而在于决断能力(P值)。当S值可以被指数级地外包和放大,P值的相对价值反而更加凸显。SPU理论用公式U=PS来表达这一关系:U值(净价值)等于P值(决断力)的S值(执行力)次方。当S值增长时,P值的微小差异会被指数级放大;当S值趋近于无限时,P值的方向性决定了一切——因为S值本身没有方向,它只是一个放大器,方向只能来自P值。
这意味着,AI越强大,P值越珍贵。不是因为人比机器更聪明、更快速、更准确,而是因为只有人能负责。责任不是一种功能,而是一种存在状态——它是人之为人的定义性特征(defining feature)。
五、不是回到古典,而是重新定义
提出P值理论,不是为了复兴某种古典的人文主义,也不是为了在机器面前捍卫人类的优越感。恰恰相反,P值理论是在技术条件下重新定义”人”的边界。
在传统社会中,人的价值往往与S值紧密绑定。一个人的社会地位、收入水平、话语权,很大程度上取决于他的行动能力——他能否比其他人更快、更准、更强地完成某项任务。这种S值本位的价值观造成了深刻的不平等:天赋异禀者和普通人之间的鸿沟难以逾越。
AI时代的到来,第一次从根本上动摇了S值本位的价值体系。当算法可以在大多数执行任务上超越人类,S值的稀缺性消失了。一个普通人借助 AI 工具,可以在写作、设计、编程、分析等领域达到过去只有专家才能达到的水平。这不是精英主义的胜利,而是技术条件下的平权运动——S值的民主化。
但S值的民主化带来了一个意想不到的后果:当所有人都能借助AI获得强大的执行能力,真正区分人与人之间差异的,不再是”你能做什么”,而是”你决定做什么”。这就是P值的本体论地位:在S值被普遍化的时代,P值成为了人的不可化约的核心。
SPU理论的社会意义正在于此。它不是一套管理学工具,也不是一种技术经济学分析,而是一种哲学思考——它回答的是:在AI焦虑弥漫的时代,每一个人如何找到自己的价值立足点?答案不是”学会使用AI”(这是S值层面的问题),而是”明确自己的决断”(这是P值层面的问题)。一个人可以借助AI写出漂亮的文章,但只有他能决定文章的观点和立场;一个人可以借助AI做出精准的投资,但只有他能决定投资的伦理底线。
这种P值本位的理论,为当代人提供了一种心理自洽:我们不必在机器面前感到自卑,因为机器所擅长的(S值)和我们所独有的(P值)根本不在同一个维度上。AI是锤子,人是握锤子的手;AI是船,人是掌舵的人。越强大的船,越需要清醒的舵手。

结语
让我们回到开篇的那两个案例。
律师被吊销执照,表面上看是因为他使用了虚假判例,但深层的原因是他的P值失职——他将自己的抉择责任(确保材料真实)外包给了AI的S值(信息检索),而没有保持P值应有的审慎。如果他坚持在提交前逐一核实AI提供的每一个判例,事故本可避免。他的错误不在于使用工具,而在于让工具替自己做决定。
医生的误诊同样如此。AI诊断系统的97%准确率是一个S值指标,但决定是否采纳这一建议、是否在AI判断与临床经验冲突时坚持己见、是否在不确定时寻求第二意见——这些都是P值的领域。医生的责任不在于AI出错了,而在于他没有用自己的P值去覆盖 AI的S值错误。
这两个案例给我们的根本启示在于:技术越强大,P值越珍贵。不是因为人比机器厉害,而是因为只有人能负责。责任不是一种可以外包的功能,而是人之为人的根本属性。
从这个角度重新审视AI时代的责任归属,我们得到的不是一个悲观的结论,而是一个清醒的立场。AI的发展不会停止,S值的提升不会逆转,但这恰恰意味着P值的价值将更加凸显。未来需要的不是阿西莫夫”机器人三原则”式的技术伦理——那种伦理预设了AI是独立的行动者。未来需要的是一种人类在场原则:在任何涉及不可逆后果的决策链条中,人类P值必须保持最终的决断地位和不可推卸的责任。
OpenClaw落地企业,是“替代”还是“重塑”?元生代学院主题沙龙破题企业智能化转型
数智赋能,共谱创新新篇——元生代研修班(第六期)在清华大学举办

夜雨聆风