别让AI把你的脑子"养废"了——研究说这真的会发生
上周我儿子拿着一道数学题来问我,我下意识掏出手机想让豆包帮他看看——然后我突然顿了一下,感觉有点不对劲。
不是题不会,是我越来越习惯把”想”这件事直接外包出去了。
这个感觉搁在一年前,我可能会觉得是自己多虑。但最近翻了几篇研究,说实话有点被说中了。
脑电图测出来了
MIT Media Lab今年发布了一项研究,题目叫《Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task》,可以翻译成”你用ChatGPT时的大脑:AI辅助写作中认知债务的累积”。
他们把54个参与者分成三组:一组用LLM写文章,一组用搜索引擎,一组什么工具都不用、纯靠自己脑子想。然后坚持做了四个月,全程用脑电图(EEG)监测大脑活动。
结论比较直白——长期依赖LLM写作的那组,大脑连接强度是三组里最弱的。纯靠自己想的那组,神经网络是最丰富、分布最广的。搜索引擎那组居中。
更有意思的是第四轮实验:让原本用LLM的人改成纯脑力模式之后,他们的alpha波和beta波连接都明显减弱了——意思是就算你”想”回来,大脑短期内也没法立即恢复到原来的水平。
原文说的是:
“LLM users displayed the weakest connectivity… Over four months, LLM users consistently underperformed at neural, linguistic, and behavioral levels.”
(LLM用户展示出最弱的大脑连接……在四个月中,LLM用户在神经、语言和行为层面的表现持续落后。)
他们给这个现象起了一个词:认知债务(Cognitive Debt)。
这个词我觉得取得相当准。不是说你用一次AI就立刻变笨,而是像信用卡一样,每次外包一点思考,慢慢就欠了一堆,等你某天想”自己来”,发现还不上了。
知识工作者也没逃掉
在CHI 2025(计算机与人类交互领域最顶级的学术会议)上,微软研究院的团队发了一篇论文:《The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers》,即”生成式AI对批判性思维的影响:对知识工作者的调查中自我报告的认知努力减少和信心效应”。
他们调查了319位知识工作者,收集了936个第一手使用AI的真实场景。
结论是:GenAI工具让人效率更高了,但认知的重心从”主动解决问题”转移到了”被动核查和监督”。一个更直白的说法是——完成的任务更多了,真正理解的东西更少了。
我在做AI产品落地这块待了很多年,这个说法我认。很多时候开会,有人直接把豆包或者GPT的输出丢上来,说”AI也这么说了”,讨论就结束了。没有人去问AI这么说的依据是什么,也没人去想有没有反例。
某种意义上,AI成了会议室里最有话语权的那个人,而我们变成了它的传声筒。
但问题不是AI,是我们用AI的方式
西班牙人工智能研究院(IIIA-CSIC)和墨尔本大学合作的一篇教育领域论文说了一个很关键的观点:
“LLMs are not educationally neutral; their effects are contingent rather than fixed.”
(大语言模型在教育上不是中性的;它们的影响是条件性的,而不是固定的。)
意思是AI不必然把你变笨,但如果你没有刻意抵抗,它默认会让你越来越省事、越来越少思考。
这背后有个设计逻辑:现在大多数AI产品追求的是”零摩擦”——你提问,它直接给答案,越流畅越好。但是,恰恰是这种流畅,让大脑完全不需要参与进来。
这让我想到一个词:认知摩擦(Cognitive Friction)。有时候适当的阻力,反而是保护你思考能力的东西。
有人在想解法了
今年一月,arXiv上有篇文章我觉得是这个问题目前最接近实操答案的——《An Experimental Comparison of Cognitive Forcing Functions for Execution Plans in AI-Assisted Writing》,即”AI辅助写作执行计划中认知强制函数的实验比较”。
作者Ahana Ghosh、Advait Sarkar等人研究的是一个叫做认知强制函数(Cognitive Forcing Functions,简称CFF)的概念。
什么意思?就是在AI给你输出结果之前,强制让你做一件事:
-
Assumption模式:让你先分析AI输出里的假设和论点,再决定要不要用 -
WhatIf模式:让你做假设测试,想想如果某个条件变了,结论还成立吗 -
两者结合 -
什么都不加(对照组)
测试结果:Assumption模式减少了过度依赖AI,同时没有增加用户的认知负担。WhatIf模式被用户觉得最有用,但实际上减少过度依赖的效果不如Assumption。
这个发现有意思的地方在于:不是让你”不用AI”,而是在你和AI之间加一层”必须自己过一遍”的环节,效果就出来了。
原文核心表述:
“The Assumption CFF most effectively reduced overreliance without increasing cognitive load.”
(Assumption认知强制函数在不增加认知负担的前提下,最有效地降低了对AI的过度依赖。)
另外还有一个方向值得关注——让AI和AI辩论。arXiv上2402.06782那篇论文《Debating with More Persuasive LLMs Leads to More Truthful Answers》做了这样的实验:让两个LLM分别持不同立场进行辩论,然后让人或弱模型来判断谁说得对。
结果比直接问一个AI准确率要高不少——非专家模型的准确率从48%提升到76%,人类从60%提升到88%。
这背后的逻辑我觉得是对的:用AI对抗AI,而不是完全信任AI,反而能帮你看得更清楚。
我自己现在怎么做
说回我儿子问数学题那个场景,后来我没有让豆包替他解,我让豆包给他提了三个问题,然后让他自己去回答那三个问题之后再算。
这其实就是一种简单的”强制函数”。
我在工作里也开始有意识地这样用:不直接让AI给结论,而是先让它提出三个我没想到的反驳点,再让它告诉我这个方案的核心假设是什么,然后我来评判这些假设成不成立。
有时候很麻烦,比直接问一遍慢多了。但慢的那几分钟,是我自己在思考的时间,不是AI在替我想。
我认为这个习惯值得养成,不是因为研究说了,是因为我确实感觉到差别。用AI用得太顺的那几个月,回过头看自己写的东西,总觉得缺点什么——那个东西现在大概叫做”我自己的判断”。
当然,这不是反对用AI。都2026年了,说不用AI的人基本上是在开玩笑。我的意思是,在使用AI的流程里,刻意给自己留一个必须动脑子的环节——哪怕只是”在接受AI输出之前,问它一个反驳自己的问题”,也好过什么都不做。
认知债务这东西,早还比晚还轻松。
参考文章链接:
-
主要参考:An Experimental Comparison of Cognitive Forcing Functions for Execution Plans in AI-Assisted Writing https://arxiv.org/abs/2601.18033
-
Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task https://arxiv.org/abs/2506.08872
-
The Impact of Generative AI on Critical Thinking (CHI 2025) https://dl.acm.org/doi/10.1145/3706598.3713778
-
Scaffolding Critical Thinking with Generative AI (IIIA-CSIC & University of Melbourne) https://www.iiia.csic.es/media/filer_public/a1/a5/a1a57cdc-0aa0-45e0-ae2b-6e4238ee6617/1-s20-s2666920x26000342-main_5.pdf
-
Debating with More Persuasive LLMs Leads to More Truthful Answers https://arxiv.org/abs/2402.06782
夜雨聆风