● 科技分析 · 阅读约 8 分钟
AI能给出一千个最优解,却无法在任何决策上签字负责。本文揭示了AI时代最反直觉的稀缺能力——不是「会分析」,而是敢于在不确定性中做出判断、并为所有后果承担责任的勇气。这种能力,正因AI越强而越值钱。
要 点 速 览
01 AI把「可量化的风险」全面吃掉,反而让「不可量化的不确定性」变得更稀缺、更值钱,敢于在其中签字的人站在价值链顶端。02 「按AI建议办、出了问题怪AI」是AI时代最危险的人格退化,习惯让AI替你担责,最终会失去独立做判断的能力。03 真正稀缺的责任担当能力,不是职位赋予的,而是在「本可以推给别人却选择自己扛」的一次次练习中慢慢长出来的。

外科手术意外:AI给解,人来签字
各位,我想先讲一个场景。
一位心脏外科医生,要给一个60岁的病人做一台高风险手术。手术前,他用了全世界最先进的AI系统,这个系统分析了过去十年全球几百万例同类手术的数据,给出了最优的手术方案,预测了所有可能的并发症,标注了每一步的风险系数。
医生照着AI的方案,一步一步执行。
但是,手术台上,意外发生了。病人的血管出现了一个极其罕见的变异,AI的数据库里没有这种情况。医生只有几秒钟的时间,要做一个决定——按原方案推进,还是改变路径?
决定是他做的,后果是他承担的,如果病人没救过来,在家属面前哭着解释的,是他。
这就是我今天想跟大家聊的事。
AI能给你一千个最优解,但没有任何一个决策,能让AI来签字负责。
上一场演讲,我跟大家讲了“聪明”在AI时代正在被重新定价——那些可以被AI打包成公共服务的“低维聪明”,正在变得像水和电一样廉价。
今天我要讲的,是“高维聪明”里我认为最反直觉、但也是最稀缺的一个维度。
这个维度,不是“会做什么”,不是“能做多好”,而是——
敢不敢在一个没有标准答案的局面里,做出判断,并且为这个判断的所有后果,签上自己的名字。
Human in the loop:责任必须落在人身上
我们先来看一件事。
这些年,AI在各个专业领域里全面渗透——医疗、法律、金融、自动驾驶、军事、政策制定。所有这些领域都有一个共同的监管要求,叫"Human in the loop",翻译过来就是:人必须在决策回路里。
为什么?
不是因为AI不够聪明,在很多领域,AI的判断已经比人类专家更准了。
是因为AI不能被追究。
一台自动驾驶的车,撞死了一个行人。法律要追责——追谁?追AI?AI没有法人资格,没有财产,没有情感。你没办法让它去坐牢,没办法让它赔钱,没办法让它愧疚一辈子,没办法让它在死者家属面前低头。
所以,法律必须找到一个“人”——制造商、运营商、驾驶员,一定要有一个人在这个回路里,承担那个AI无法承担的东西。
这不是法律的保守。
这是一个更深层的事实——责任的本质是“可被追究”,而AI在本体论上,就不是一个可被追究的主体。
你可能会说,这个概念太抽象了,跟我一个普通人有什么关系?
我跟你说,关系大了去了。
因为这个原则,正在决定AI时代所有高价值工作的核心竞争力。
投行、政策、创业:签字动作越来越值钱
我给你举几个例子。
一个投行分析师,做一个十亿美金的并购案。AI能给他最完整的财务模型、最全面的市场分析、最精准的风险预测。但最后那一刻,向客户建议“做”还是“不做”,在客户面前拍桌子、承担推荐失败后果的,是他。
一个政策研究员,给政府提一份涉及上百万人生计的政策建议。AI能给他所有的模拟数据、所有的利弊分析、所有的历史参考。但最后在议政会上发言、在政策失败时承担公众批评的,是他。
一个创业公司的CEO,要决定是否把公司的全部现金投进一个新方向。AI能给他市场趋势、竞品分析、最优路径推演。但如果这个方向错了,面对投资人、面对员工、面对自己几年青春打了水漂的,是他。
AI能让所有的“分析”变得前所未有地精准,但所有的“决定”,仍然需要一个人来签字。
而且你注意到没有——AI越强,这个“签字”的动作反而越稀缺、越值钱。
为什么?
因为AI把所有能被量化、能被分析、能被推演的部分都做到了极致。剩下的,全是AI做不到的部分——在数据不够、信息模糊、后果重大、没有先例的局面里,做出判断。
这是AI给不出最优解的地方。
也是你真正不可替代的地方。
❝ AI可以帮你做得很对。但AI没法替你站在那里,面对可能错的后果❞
Knight的区分:不可量化的不确定性才是稀缺
我今天想讲一个更底层的事情。
经济学家Frank Knight在一百多年前写过一本书,叫《风险、不确定性与利润》,他在这本书里做了一个极其重要的区分——
“风险”和“不确定性”不是一回事。
“风险”是可以被量化的,你买股票,历史波动率、收益分布、相关性、因子暴露,全都能算出来。这种东西,保险公司可以卖保险,金融市场可以对冲,现在AI可以做得比任何人都好。
但“不确定性”是没办法量化的,一个新的行业会不会出现,一个决策会带来什么样的连锁反应,一个人能不能被信任,一个方向值不值得赌上人生——这些东西,没有历史数据,没有概率分布,没有最优解。
Knight说,企业家利润的本质,就是承担这种“不可量化的不确定性”。
一百年前是这样,今天更是这样。
因为AI把“可量化的风险”这一块,全面吃掉了,以前你靠分析数据赚钱,现在AI比你分析得更好,以前你靠经验预测趋势,现在AI比你预测得更准。
但“不可量化的不确定性”这一块——AI碰不了。
因为AI的所有能力,都建立在“数据分布”上,而真正的不确定性,根据定义,就是“超出已有数据分布的东西”。
AI越强,“可量化的风险”越便宜。 “不可量化的不确定性”反而越稀缺、越值钱。 敢于在不确定性中签字的人,就是AI时代社会价值链的最顶端。
但这里我要讲一件重要的事,避免被误解。
“敢于承担责任”不等于“职位高”。
现实中,有大量人是因为职位使然而“承担责任”——一个CEO因为公司亏损被迫辞职,他“承担了责任”,但这不等于他有“敢于承担”的能力,他只是被制度推到了那个位置。
真正稀缺的“责任担当能力”,是当制度没有把你推到那个位置时,你依然愿意站出来。
当没有人要求你负责,你依然为一件事负责到底;当别人都在推诿,你依然说“这件事我来扛”;当AI已经给了你“避免担责”的完美话术,你依然选择诚实地承担后果。
这种“主动在不确定性中承担”的能力,才是AI时代真正的稀缺品。
它不是装出来的,不是职位赋予的,不是制度倒逼的。
它是一个人内在的、本能的、面对后果不退缩的品质。
这个品质,AI永远学不会。
橡皮图章陷阱:甩锅AI是最危险的人格退化
再讲一件更扎心的事。
AI还在加速一种反向趋势——决策的责任分散化。
越来越多的决策,正在变成"AI建议+人类执行“的模式。听起来好像是人在做决策,但实际上,很多人已经变成了AI建议的”橡皮图章"——AI说什么,他签什么。
为什么?因为这样最“安全”,如果出了问题,可以说“是AI的建议,我只是执行”,责任被巧妙地甩给了一个不能被追究的对象。
你有没有发现,这种“按AI建议办,出了问题怪AI”的思维,正在悄悄蔓延?
这是AI时代最危险的一种人格退化。
因为当你习惯了让AI替你承担判断的权重,你就失去了“独立做判断”的能力,你失去了那种在关键时刻敢说“这事我来定”的勇气,你失去了一个成年人最核心的品质——对自己的选择负责。
当社会上越来越多的人进入这种“甩锅模式”,那些依然愿意说“我来签”的人,会变得前所未有地珍贵。
他们会成为组织最信任的核心骨干,他们会成为客户最愿意托付的人,他们会成为历史在关键时刻想到的那个名字。
因为在一个人人都在甩锅的时代,“我来负责”这四个字,就是最硬的通货。
三句忠告:刻意练习敢于签字的能力
所以,我今天想留给大家三句话。
第一句:AI时代最危险的事情,不是被AI替代,而是养成“让AI替你担责”的习惯
每当你要做一个重要决定,你要警惕这个问题——你是在用AI辅助判断,还是在用AI回避判断?你是在让AI帮你更好地承担,还是在让AI帮你推卸?
这两者的区别,决定了你十年后是什么人。
第二句:敢于承担后果的能力,是需要刻意练习的
它不是天生的,不是职位给的,是你在一次又一次“本可以推给别人但选择自己扛”的时刻里,慢慢长出来的。
从小事开始,一个项目出了问题,不要找借口,直接说“这是我的判断失误,我来处理”。一个团队犯了错,作为leader,不要把责任分摊给下属,直接说“是我没把方向定对”。一个选择后悔了,不要怪环境、怪运气、怪别人的建议,直接承认“这是我当时的决定”。
每一次你独立签下这个字,你的“责任担当能力”就长出来一点。
第三句话,也是最重要的——在AI时代,最稀缺的不是“做得对的人”,而是“愿意为后果负责的人”。
AI可以帮你做得很对,但AI没法替你站在那里,面对可能错的后果。
而那个愿意站在那里的人——不论结果是对是错,他都在定义自己是谁。
这,是AI永远够不到的地方。
这,是你在这个时代真正的尊严。
谢谢大家。
夜雨聆风