你以为 AI 在帮你,结果它先让你不想思考了
一项覆盖 1222 名参与者的随机对照研究发现:只要 10 到 15 分钟,把 AI 当答案机来用,人之后独立作答的正确率会下降,也更容易直接放弃。
你可能也有过这种时刻。
明明一开始只是想“先让 AI 帮我过一下这道题”“先让我看个答案找找感觉”。
结果看完之后,当你真的要自己做,反而更不想动脑了。
这次,问题不是玄学,也不是代际焦虑。
而是有研究开始给出比较扎实的因果证据,AI 不只是会帮你省力,它也可能顺手降低你继续思考的意愿。
如果你做教育产品、学习工具、知识型 AI,或者只是一个每天都在用 AI 的普通用户,这事都值得认真看一眼。
🔥 先说结论,这次被击中的不是“做题能力”,而是“继续想下去的能力”
这项研究题为 《AI Assistance Reduces Persistence and Hurts Independent Performance》。
研究覆盖 1222 名参与者,任务包括分数运算和 SAT 阅读理解,属于样本量较大的随机对照实验。
它测试的问题非常直接。
不是“你会不会担心自己依赖 AI”,而是:
当你先在 AI 帮助下完成任务,之后再把 AI 拿走,你还能不能自己做出来?
研究结果也很直接。
• 在 AI 辅助阶段,参与者短期表现更好
• 但在失去 AI 后,独立作答正确率下降
• 同时,参与者更容易跳过题目,直接放弃继续尝试
这里最值得警惕的词,不是 performance,而是 persistence。
也就是,坚持尝试的能力。
这点为什么重要?
因为实验里,答错没有惩罚,报酬也不和成绩挂钩。所以很多人不是“实在不会”,而是主观上更不愿意继续投入努力。
很多时候,学习真正先坏掉的,不是正确率,而是你不想再硬着头皮想下去了。
这句话,才是这项研究最扎人的地方。
⚔️ 真正的分水岭,不是“有没有 AI”,而是“你把 AI 当成什么”
这项研究有一个特别重要的价值。
它没有简单粗暴地下结论说,“用了 AI 就会变笨”。
它把问题拆开了。
根据 The Decoder 的报道,AI 组用户里,大约 61% 主要采用的是“直接答案模式”。而这群人在失去 AI 后,表现最差,跳题也最多。
这意味着什么?
意味着问题不只是“你是否使用了 AI”。
而是:
你到底把 AI 当成脚手架,还是当成代做机器。
如果 AI 给你的是这些东西:
• 提示
• 思路拆解
• 纠错反馈
• 反问引导
• 局部线索
那它更像一个脚手架,帮你把能力搭起来。
但如果 AI 给你的是:
• 现成答案
• 一步到位的结论
• 已经替你推完的过程
那它也可能在悄悄拿走更关键的东西:
你独立推导、坚持尝试、识别卡点的能力。
所以,真正的问题不是“AI 能不能帮你”。
而是:
AI 帮你的方式,究竟是在保住能力,还是在替代能力。
🧠 为什么会这样,研究给了两个很关键的解释
1. AI 会重置你对“正常难度”的感受
当系统总能在几秒内给出答案,你的大脑会很快适应这种流畅感。
于是,一旦 AI 被拿走,原本正常的卡顿、推导、试错、修正,就会突然显得格外难,格外慢,也格外不值得。
不是题目真的变难了。
而是你的耐受阈值被改写了。
换句话说,AI 不是只改变了结果。
它还改变了你对“我应该付出多少努力才算正常”的心理预期。
2. AI 可能抹平了最有价值的“有效挣扎”
论文里提到一个很关键的学习概念,叫 productive struggle,也就是有效挣扎。
很多知识并不是“听懂了”就算掌握。
真正让能力长出来的,往往是这几个过程:
• 先自己试一遍
• 卡住
• 出错
• 修正
• 再试一次
这个过程不舒服。
但它很重要。
如果 AI 直接把这段过程整体跳过,你拿到的可能只是一个正确结果,却没长出那套支撑长期能力的认知结构。
看上去是更高效了。
但从长期看,可能是在透支未来独立解决问题的能力。
📊 这事为什么不是教育圈的小问题,而是所有 AI 产品都该重视的设计信号
过去大家常说,AI 最理想的角色应该像老师、导师、教练,而不是单纯的答案库。
这句话听起来对,但也有点空。
这次研究的价值就在这里。
它把一个模糊担忧,慢慢变成了一个可讨论、可设计、可验证的产品问题:
如果一种 AI 交互方式短期提高了正确率,却削弱了用户离开 AI 后的独立能力和 persistence,它就不是优质协作。
这条标准,至少值得被放进产品评估里。
你可以把它理解成一个很现实的判断:
• 这个 AI 是在帮用户更快完成
• 还是在帮用户更会完成
这两个方向,长期结果可能完全不同。
对教育科技产品意味着什么
更好的学习型 AI,也许不该默认直接给完整答案。
更合理的帮助顺序,可能是:
1. 先提示
2. 再拆步骤
3. 再给检查线索
4. 必要时反问
5. 最后才考虑完整示范
重点不是“不帮”。
而是不轻易替用户把最关键的思考步骤走完。
对企业培训、编程辅导意味着什么
很多团队已经默认把 AI 当效率放大器。
这当然没错。
但如果一个工具长期把人训练成“只会验证结果,不会自己推过程”的工作习惯,代价可能会在后面出现。
比如:
• 新人上手越来越快,但独立判断越来越弱
• 编程速度变快了,但调试与定位问题能力变差
• 写作更顺了,但结构判断和论证能力在退化
短期效率,未必天然等于长期能力。
对所有知识工作者意味着什么
你会发现,真正危险的不是 AI 偶尔替你做了一件事。
而是它的输出太流畅、太自信、太省事,让你越来越少追问:
• 这个结论对吗?
• 为什么是这样?
• 我自己能不能再推一遍?
这也是为什么另一类关于 cognitive surrender(认知让渡) 的研究会受到关注。
风险不只是“偷懒一次”。
而是你慢慢失去了判断:
什么时候该怀疑,什么时候该坚持,什么时候必须自己再想一轮。
⚠️ 也别走到另一个极端,这项研究有边界
说到这里,也需要理性回归一下。
这项研究并不等于所有真实世界任务都会以同样幅度受影响。
它测的是:
• 短时任务
• 受控实验环境
• 主要集中在基础数学与阅读理解
所以,我们不能机械地把结论外推到所有工作、创作、协作场景。
但它至少已经清楚说明了一件事:
AI 的帮助方式不是中性的。
不同的交互设计,会把人推向完全不同的能力轨迹。
这不是“要不要 AI”的问题。
而是“什么样的 AI,正在把人带向更强,什么样的 AI,正在把人带向更弱”。
💡 对你意味着什么,今天就能做的 3 个小调整
如果你本来就在高频使用 AI,这里其实有三个非常低门槛的用法调整。
1. 先让 AI 给提示,不要一上来就要答案
你可以直接改问法。
比如把“直接告诉我答案”改成:
• 先提示我第一步
• 不要直接给结论
• 帮我找错,不要替我重做
• 用提问方式引导我
很多时候,问题不是 AI 太强,而是你的调用方式默认把自己放到了旁观者位置。
2. 给自己留一个“先独立尝试 3 分钟”的缓冲区
尤其是学习、写作、分析、编程这类任务。
先想 3 分钟,再问 AI。
这个动作很小,但很有用。
它至少能让你先暴露出自己的真实卡点,而不是直接跳过思考过程。
3. 用 AI 做反馈器,不只做答案机
最好的协作方式,往往不是“你替我完成”,而是“你帮我校准”。
比如:
• 我先写,你帮我挑逻辑漏洞
• 我先做,你帮我指出哪一步最容易错
• 我先判断,你帮我给反方视角
这样你得到的不只是结果,还有能力回路本身。
🌱 最后一句,真正高级的 AI,不是替你想完,而是帮你保住思考能力
这项研究真正想提醒我们的,不是“别用 AI”。
而是:
别把 AI 用成答案机。
真正高级的 AI,不该只是更快替你做完题、写完段落、给出结论。
它更应该像一个靠谱的老师。
知道什么时候该帮。
也知道什么时候,不能替你把最重要的那一步想完。
未来 AI 产品真正的分水岭,可能不是谁回答得更快,而是谁能在提升效率的同时,保住人的思考能力。
💬 互动区
你平时用 AI 时,更常见的是哪一种状态?
• A. 先自己想,再让 AI 提示
• B. 会让 AI 直接给答案,再回头看
• C. 看任务,有时提示,有时直接要结果
欢迎在评论区留一个 A / B / C,也可以补一句你最常用 AI 的场景。
我想看看,大家现在到底是在把 AI 当“脚手架”,还是当“代做机”。
参考来源
• The Decoder, Just ten minutes of using AI as an answer machine can measurably erode problem-solving skills, new study finds
https://the-decoder.com/just-ten-minutes-of-using-ai-as-an-answer-machine-can-measurably-erode-problem-solving-skills-new-study-finds/
• Christian et al., AI Assistance Reduces Persistence and Hurts Independent Performance
https://arxiv.org/html/2604.04721
• Ars Technica, “Cognitive surrender” leads AI users to abandon logical thinking, research finds
https://arstechnica.com/ai/2026/04/research-finds-ai-users-scarily-willing-to-surrender-their-cognition-to-llms/
夜雨聆风