乐于分享
好东西不私藏

认知投降:AI越来越强,越来越多的人已经投降了,你呢?

认知投降:AI越来越强,越来越多的人已经投降了,你呢?

💡 核心观点:73.2%的人愿意接受错误的AI答案,研究发现”认知投降”现象普遍存在,时间压力和激励机制是关键影响因素。

原文链接:https://arstechnica.com/ai/2026/04/research-finds-ai-users-scarily-willing-to-surrender-their-cognition-to-llms/


1. 引言:两类AI用户

当谈到基于大语言模型(LLM)的工具时,用户大致分为两类。

一类人将AI视为强大但有时出错的工具,需要人类仔细监督和审查,以发现推理或事实上的缺陷。

另一类人则习惯将批判性思维外包给他们视为”全知全能”的机器。

最近的研究为第二类用户建立了新的心理学框架,他们经常对AI看似权威的答案进行”认知投降”(cognitive surrender)。研究还通过实验检验了人们何时、为何愿意将批判性思维外包给AI,以及时间压力和外部激励如何影响这一决策。

🔴 痛点场景

你正在用AI工具解决问题。AI给出了一个看似合理的答案,你准备接受。但你突然意识到:你是否真的思考过这个答案?你是否验证了它的正确性?

你可能属于第二类用户——那些习惯将认知外包给AI的人。宾夕法尼亚大学的研究揭示了一个事实:大多数人愿意接受错误的AI答案,即使答案明显有问题。

🟢 解决方案

研究不仅揭示了问题,还找到了影响因素:时间压力会让人们更容易接受错误答案,而激励机制和即时反馈能促使人们纠正AI的错误。

理解这些机制,你就能避免成为”认知投降”的受害者。

🎯 本文价值

读完这篇文章,你将理解:

  • • 什么是”认知投降”及其心理学机制
  • • 为何73.2%的人愿意接受错误的AI答案
  • • 时间压力和激励机制如何影响决策
  • • 如何避免认知投降,保持批判性思维

2. 理论框架:认知投降的定义

宾夕法尼亚大学的研究者Alex Shaw和Gideon Nave在论文《思考——快速、慢速与人工:AI如何重塑人类推理与认知投降的兴起》中,基于现有的决策理论提出了新的框架。

📌 三种认知系统

研究者指出,人类决策可分为两种:

  • • 系统1:快速、直觉、情感化的处理
  • • 系统2:缓慢、深思熟虑、分析性的推理

AI系统的出现,研究者认为创造了第三类认知——”人工认知”(artificial cognition):决策由外部、自动化、数据驱动的推理驱动,来自算法系统而非人类心智。

🧠 认知卸载 vs 认知投降

过去,人们使用从计算器到GPS的工具进行特定任务的”认知卸载”(cognitive offloading),策略性地将某些任务委托给可靠的自动化算法,同时用自己的内部推理监督和评估结果。

但研究者指出,AI系统引发了分类不同的”认知投降”:用户提供”最少的内部参与”,完全接受AI的推理,没有监督或验证。

这种”不加批判地放弃推理本身”的现象,在LLM的输出”流畅、自信或阻力最小”时尤为常见。


3. 实验设计:认知反思测试

研究者使用认知反思测试(Cognitive Reflection Test, CRT)来测量认知投降的普遍性和影响。

CRT旨在引发参与者给出错误答案——这些答案依赖直觉(系统1)思维过程,但使用更深思熟虑(系统2)思维过程的人相对容易找到正确答案。

🔬 实验设置

研究者为参与者提供可选的LLM聊天机器人访问权限,但这个机器人被修改为:

  • • 对CRT问题,约50%的时间提供错误答案
  • • 约50%的时间提供正确答案

研究者假设:频繁咨询聊天机器人的用户会让这些错误答案覆盖直觉和深思熟虑的过程,损害整体表现,突显认知投降的危险。

📊 实验结果

在一项研究中,有AI访问权限的实验组在约50%的CRT问题上咨询了AI。

当AI正确时,这些用户在93%的情况下接受了AI的推理。

当AI随机”出错”时,这些用户仍然在80%的情况下接受AI推理——尽管比率较低,但仍很高。研究者指出,仅AI的存在就经常”取代内部推理”。

不出所料,使用AI的实验组在AI提供正确答案时表现远好于”仅靠大脑”的对照组,而在AI出错时表现远差于对照组。

值得注意的是,使用AI的组在自己答案的信心评分上高出11.7%,即使LLM有50%的时间给出错误答案。


4. 影响因素:时间压力与激励机制

研究者还探索了哪些因素会影响人们是否纠正错误的AI答案。

⏱️ 时间压力的影响

在另一项研究中,添加时间压力(30秒计时器)会使纠正错误AI的倾向降低12个百分点。

研究者认为,这表明”当决策时间稀缺时,检测冲突并招募深思熟虑的内部监控不太可能触发”。

简单说:时间紧迫时,人们更依赖AI,不太会质疑它的答案。

💰 激励机制的影响

添加激励机制(小额付款)和正确答案的即时反馈,会将成功推翻错误AI的几率相对基线提高19个百分点。

这表明:有实质性后果时,AI用户会花额外时间验证响应。

📈 整体数据

在总计1,372名参与者、超过9,500次个体试验中,研究者发现:

  • • 73.2%的时间:人们愿意接受错误的AI推理
  • • 仅19.7%的时间:人们会推翻错误AI

研究者写道,这证明人们愿意将AI生成的输出整合到决策过程中,通常阻力最小或缺乏怀疑。

总体上,流畅、自信的输出被视为认知权威,降低了审查门槛,削弱了通常会引发深思熟虑的元认知信号。


5. 个体差异:智商与信任的影响

认知投降并非对所有测试对象都均匀分布。

🧩 流体智商的影响

在单独的流体智商(Fluid IQ)测量中得分高的人:

  • • 不太依赖AI寻求帮助
  • • 咨询AI时更可能推翻错误的AI

流体智商衡量的是解决新问题、识别模式和逻辑推理的能力,而非依赖既有知识。

🤝 AI信任度的影响

相反,在调查中倾向于将AI视为权威的人:

  • • 更可能被错误AI答案误导

研究者指出,对AI的信任预设会影响是否被误导。


6. 认知投降并非完全不合理

尽管结果显示大多数人愿意接受错误答案,研究者指出:认知投降并非本质上不合理。

⚖️ 依赖的合理性

依赖有一半时间出错的LLM(如这些实验)有明显的缺点。但统计上更优的系统在概率设置、风险评估或大量数据等领域,可能合理地给出优于人类的结果。

研究者写道:随着依赖增加,表现追踪AI质量——准确时上升,出错时下降,展示了超智能的承诺,也暴露了认知投降的结构性脆弱。

💡 关键洞察

让AI为你做推理,意味着你的推理永远只能达到那个AI系统的水平。

一如既往:让提示者警惕。


7. 总结:认知投降的关键发现

发现
数据/结论
含义
接受错误AI答案的比率
73.2%的时间接受错误推理
大多数人放弃批判性思维
正确AI答案的接受率
93%接受正确推理
AI正确时几乎不质疑
时间压力的影响
降低12个百分点纠正倾向
时间紧迫时更依赖AI
激励机制的影响
提高19个百分点纠正倾向
有后果时更愿意验证
流体智商的影响
高智商者更可能推翻错误AI
智商提供保护
AI信任的影响
高信任者更可能被误导
信任成为陷阱

8. 实践建议:如何避免认知投降

✅ 关键行动

  1. 1. 永远验证AI答案:特别是关键决策时
  2. 2. 给自己足够时间:避免时间压力下的匆忙决策
  3. 3. 建立激励机制:为验证AI答案设置奖励或后果
  4. 4. 保持批判性思维:不要因为AI答案流畅自信就接受
  5. 5. 了解AI局限性:AI可能一半时间出错

⚠️ 警惕信号

  • • AI答案看似完美流畅
  • • 你没有时间质疑
  • • 你对AI高度信任
  • • 你没有验证的习惯