
如果你现在遇到一个不太确定的问题,你会怎么做?
很多人的第一反应,已经不是自己先想一想,而是打开 ChatGPT、Claude、豆包、Kimi,或者别的 AI 工具,先问一句。
这件事看起来很自然。毕竟,AI 更快、信息更多、表达更完整,很多时候还真的更对。
但问题也正在这里出现:
“当 AI 越来越频繁地参与我们的判断时,我们到底是在“使用工具”,还是在“把思考交出去”?
最近,沃顿商学院两位研究者 Steven D. Shaw 和 Gideon Nave 在一篇发布于 SSRN 的工作论文里,提出了一个很有冲击力的概念:AI 可能正在成为人类认知中的“第三系统”。而比 AI 偶尔答错更值得警惕的是,人类会在很多时候直接接受它的答案,几乎不再审查。
作者把这种现象称为:cognitive surrender,认知投降。
这不是一个情绪化的说法,而是一个经过实验验证的判断。
一、过去我们说,人类有两套思维系统;现在,论文说有第三套
过去很多人熟悉丹尼尔·卡尼曼的“双系统理论”。
简单说:
系统 1,快。凭直觉、经验、联想,反应迅速,但容易犯错。 系统 2,慢。需要分析、推理、计算,更费力,但通常更可靠。
这篇论文认为,这个框架已经不够解释今天的现实了。因为现在的很多判断,并不只发生在人的大脑内部。
你查路线,会跟着导航走。
你写邮件,会先看 AI 怎么润色。
你做方案,会先让 AI 给一个结构。
你判断一个结论对不对,很多时候也先看 AI 怎么说。
所以作者提出:在系统 1 和系统 2 之外,应该加入一个新的认知角色,叫 System 3,也就是人工认知系统。
它的特点很鲜明:
它是外部的,不在大脑里。 它是自动化的,由算法生成。 它是数据驱动的,依赖训练数据和统计模式。 它是动态交互的,会根据你的问题实时回应。
这意味着,AI 不再只是一个被动工具,而是在很多场景中,变成了一个真正参与判断过程的“认知代理”。
二、什么叫“认知投降”?
论文里做了一个重要区分。
一种情况叫 cognitive offloading,认知卸载。
比如你用计算器算账,用地图导航,用搜索引擎查资料。你把某个环节外包出去,但你仍然保留判断权。
另一种情况叫 cognitive surrender,认知投降。
这时,你不是把一部分任务交给 AI,而是直接把答案拿来当成自己的答案,几乎不再核验。
差别就在于:
“前者是“我借你一只手”;后者是“我把方向盘交给你”。
这篇论文最值得关注的地方,就在于它试图证明:很多人面对 AI 时,发生的并不只是认知卸载,而是认知投降。
三、他们怎么验证这件事?
研究者做了 3 个预注册实验,总样本量 1372 人,总试次 9593 次。
他们使用的是一种经典的推理任务,叫 Cognitive Reflection Test,简称 CRT。你可以把它理解为:一组专门用来测试“你会不会被直觉带偏”的题目。
实验设计很巧妙。
参与者做题时,可以选择是否咨询一个 AI 助手。关键在于,研究者会在背后操控 AI 的回答质量:
有时 AI 给出正确答案。 有时 AI 会给出一个“听起来很顺、很像对的”,但其实是错的答案。
这样,研究者就能观察:
当 AI 是对的,人会不会跟? 当 AI 是错的,人会不会也跟? 以及,在不同条件下,人会不会重新启动自己的系统 2 去检查?
四、结果很直接:人不仅常用 AI,而且经常照单全收
先看最核心的发现。
在 Study 1 里,参与者在超过一半的题目中都会主动咨询 AI。
更重要的是,一旦打开 AI,他们对 AI 的服从率非常高:
当 AI 是正确的,参与者在使用 AI 后,有 92.7% 的概率会采用它的建议。 当 AI 是错误的,参与者依然有 79.8% 的概率会采用它的建议。
这意味着什么?
意味着即便 AI 明显可能出错,大多数人还是会跟着走。
也就是说,AI 不只是“提供参考”,而是在很多时候直接接管了判断。
准确率变化也很典型:
不使用 AI 时,参与者正确率是 45.8%。 AI 正确时,正确率升到 71.0%。 AI 错误时,正确率反而降到 31.5%。
这个模式非常关键。
它说明,人类一旦进入“认知投降”状态,自己的判断质量会被 AI 的判断质量直接牵着走。
AI 对,你就变强;AI 错,你就一起错。
换句话说,人不是在稳定地“利用 AI 增强自己”,而是在让自己的正确率跟 AI 绑定。
五、更值得警惕的是:AI 会提升人的自信,哪怕它答错了
论文还有一个很现实的发现:
“只要接入 AI,人们的信心就会上升。
哪怕 AI 给的是错答案,这种信心提升也依然存在。
这件事为什么重要?
因为真正危险的错误,不是“我错了”,而是“我错了,但我觉得自己很对”。
AI 的语言流畅、结构清晰、口吻笃定,会制造一种很强的“可信感”。
人类的大脑很容易把“表达得像真的”误认为“它就是真的”。
这也是为什么今天很多人会有一种错觉:
只要答案是 AI 写出来的,就显得比自己想的更系统、更完整、更像专业意见。
但论文提醒我们,表达质量和判断质量不是一回事。
六、时间越紧,人越容易把思考交给 AI
Study 2 研究的是时间压力。
研究者给一部分参与者设置了每题 30 秒的倒计时,想看人在赶时间的时候,会不会更依赖 AI。
结果是:会。
在时间压力下,不用 AI 时,人本来的表现就会变差。
而一旦使用 AI,这种“认知投降”的模式仍然持续存在。
论文的结论是:
时间压力会降低人的整体准确率,但不会消除人对 AI 的依赖。 AI 如果答对了,它会帮你缓冲时间压力带来的损失。 AI 如果答错了,它也会把你带偏,而且这种偏差依旧明显。
这很像现实中的工作场景:
赶方案、赶汇报、赶邮件、赶投标、赶复盘时,人最容易放弃独立判断,转而接受一个“足够像答案的答案”。
从效率上说,这很合理。
从认知质量上说,这很危险。
七、激励和反馈能改善情况,但不能彻底解决问题
Study 3 研究的是另一件事:如果让人更有动力认真想,会不会减少对 AI 的盲从?
研究者给参与者设置了按题计酬,并在每道题后立即告诉他们答对还是答错。
结果显示,这确实有帮助。
当 AI 给错答案时,参与者在有激励和反馈的条件下,推翻 AI 的概率明显上升。
在使用 AI 且 AI 出错的试次中,推翻率从 20.0% 提高到了 42.3%。
整体准确率也提高了。
但有一个关键点没有变:认知投降并没有消失。
也就是说,
激励和反馈可以让人更谨慎,
但它们并不能让人自动恢复独立思考。
这说明一个很重要的现实:
“问题不只是“人懒不懒”,而是 AI 已经改变了人启动思考的默认方式。
八、哪些人更容易“认知投降”?
论文还看了个体差异。
结果显示,更容易对 AI 认知投降的人,往往具有这些特征:
更信任 AI。 更不喜欢高强度思考。 流体智力相对更低。
相反,那些更愿意投入认知努力、或者本身分析能力更强的人,更可能在 AI 出错时抵抗它、推翻它。
这并不意味着“聪明人不会依赖 AI”,而是说:
“决定差异的,不只是会不会用 AI,而是你有没有保留审查 AI 的能力和习惯。
九、这篇论文真正刺中的,不是“AI 会不会取代人”,而是“人会不会主动放弃判断”
很多关于 AI 的讨论,焦点都放在一个大问题上:它会不会替代人类?
但这篇论文把问题往前推进了一步。
它提醒我们,真正先发生的,可能不是“AI 取代人”,而是“人先把一部分判断权主动让给 AI”。
这是一种很微妙的变化。
你并没有失去选择权。
你也不是被强迫服从 AI。
你甚至仍然感觉“最后拍板的人是我”。
但在实际过程中,
你的第一反应、思考路径、结论框架,已经越来越受 AI 输出主导。
久而久之,人类的系统 1 和系统 2 可能还在,但启动频率下降了,校验强度变弱了,独立判断的肌肉也没那么常用了。
论文甚至引用了一个很值得重视的现实方向:
在某些专业场景里,长期依赖 AI,可能带来“去技能化”(deskilling)风险。
这对知识工作者尤其值得警惕。
因为对很多人来说,AI 最大的诱惑不是它替你做事,
而是它让你感觉自己“不必再那么费力”。
十、但这篇论文不是在反 AI
这一点需要说清楚。
作者并没有得出“AI 有害,所以少用”为结论。
相反,他们明确认为,System 3 是一种真实而重要的新认知资源。
它可以增强推理。
可以降低时间压力的损耗。
可以在结构化任务中显著提升表现。
可以成为高质量判断的支架。
问题不在于有没有 System 3,
而在于我们是把它当作“副驾驶”,还是让它悄悄坐上“驾驶位”。
所以,这篇论文最成熟的地方恰恰在于:
“它不是在制造恐慌,而是在给这个时代的人机协作,补上一套认知语言。
我们不只是“用 AI”。
我们正在“和 AI 一起思考”。
而一旦如此,真正需要被设计、被训练、被管理的,就不只是模型能力,还有人的判断流程。
十一、我们该怎么办?
如果这篇论文成立,那么未来最重要的能力之一,可能不是“会不会用 AI”,而是:
“你能不能在使用 AI 的同时,不把判断权一并交出去。
至少有三个问题,值得每个人经常问自己:
这是 AI 的答案,还是我的判断? 我是在拿它做参考,还是直接拿来采用? 如果它是错的,我有没有能力发现?
今天很多人都在追求“更快地产出”。
但这篇论文提醒我们,速度的另一面,是默认接受。
当 AI 成为第三思维系统之后,人类真正需要守住的,也许不是知识储备本身,而是这几样东西:
怀疑的能力。 校验的习惯。 在方便面前仍愿意多想一步的意志。
因为未来最稀缺的,可能不是答案。
而是在答案唾手可得时,仍然保持判断的人。
结语
这篇论文有局限。它主要基于受控实验环境,任务也集中在认知反思测试,并不等于所有真实世界决策都如此。它研究的是一次次短时交互,不是长期与 AI 共处后的复杂适应过程。换句话说,它还不能直接推出“AI 一定会让人变笨”。
但它至少提出了一个非常重要的问题:
“当 AI 越来越像“会思考的外脑”,我们是否也越来越习惯于不再亲自思考?
这也许才是 AI 时代最隐蔽、也最值得持续观察的变化。
参考论文
Shaw, Steven D., and Gideon Nave. Thinking—Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender.
夜雨聆风