乐于分享
好东西不私藏

你以为你在用 AI,其实是 AI 在替你思考

你以为你在用 AI,其实是 AI 在替你思考

有一个很经典的认知意识小题目。

5个人,5分钟,生产5个产品。
那么100个人,生产100个产品,需要多久?

你先别往下看。
在心里想一秒钟。

……

答案很简单:还是5分钟。

不过,这道题真正想展示的,是人类大脑的思考倾向。

而是你刚才是怎么想的?

你是不是有意识地纠正了脑子里出现的第一个答案?或者卡顿了一下得出的正确答案?

这个小小的卡顿,今天比任何时候都要紧。

一. 

今天很多人用AI,用得很顺。

写邮件,AI起草。
做总结,AI代写。
做教案,AI出框架。
看材料,AI给你三点提炼。
连”我到底怎么想”这件事,也越来越想让AI先替自己想一版。

工具帮你省力,和工具替你交出判断,不是一回事。

前者叫帮助。
后者,越来越多研究者开始用一个词来描述:

cognitive surrender。

大致是这个意思:人在面对AI输出时,逐渐放弃独立判断和推理,把本该由自己承担的认知工作,顺滑地交给系统。不是某一两次失误,而是一种普遍的认知姿态——用极少的批判性评估,接受AI生成的一切。

这就是为什么,那道”5个人5分钟”的题目并不小。

它像一根细针,轻轻一扎,扎出的是一个非常现代的问题:

我们到底是在借助工具,还是在把思考外包?

很多人一听这话,会立刻反驳:

“人类一直都在借助工具啊。
用计算器,算不算surrender?
查地图,算不算surrender?
记在备忘录里,算不算surrender?”

这反驳看上去很有力,其实偷换了概念。

因为这里有一个关键的区分:

cognitive offloading,是把”负担”卸出去;
cognitive surrender,是把”判断”交出去。

你忘性大,所以用备忘录——这叫offloading。
你不会心算大数,所以用计算器——这也叫offloading。

但如果你让AI总结了一份十页报告,然后转发给同事,附言”重点就这三条”——

你确认过这三条吗?

如果没有,那个”重点”,其实是AI的重点,不是你的。

这就不再是offloading了。
你进入的是另一个状态:交权模式。

AI输出越流畅,人越容易停止元认知监控,也就是不再主动问自己:“这到底对不对?为什么对?漏了什么?“研究者把这种状态描述为”高依赖、低摩擦”的认知象限——长期待在里面,会带来认知上的松懈,那种”它大概没错吧”的感觉会越来越自然。

说得再直白一点:

不是AI太聪明。
是它太顺了。

顺到你不想再拧一下自己的脑子。

问题最可怕的地方,不在于AI会给错答案。

AI给错答案,这不新鲜。

新鲜的是:它可以用一种非常像”对”的方式,把错递给你。

而人脑,偏偏有一个老毛病——喜欢接受那些来得快、说得满、听起来”已经想明白了”的话。流畅、低摩擦的AI界面,很容易过早满足这种心理需求,让人停止继续思考。

AI的危险,并不只是”胡说八道”。

更大的危险是:它让你在还没真正想清楚的时候,产生了一种”我已经想清楚了”的错觉。

这是最厉害的麻醉。

回到那道题。很多人不是不会算。他们只是没有继续追问:

每个人的生产率是多少?是并行生产,还是排队生产?题目里变的是人数和产品数,时间为什么要跟着变?

错误不是出在计算本身。
而是出在没有发起第二轮思考。

这就是cognitive surrender的核心现场。

AI也是一样。当它给你一个看起来完整、通顺、逻辑仿佛也在线的答案时,真正决定你是否清醒的,不是它说得多漂亮——

而是你有没有多问一句:“等一下,它是怎么得到这个结论的?”

很多人以为cognitive surrender只会发生在”不会思考的人”身上。

其实恰恰相反。

它更容易发生在工作忙、节奏快、任务多、对效率有强烈依赖的人身上。

因为他们不是不聪明。
他们只是越来越没有耐心,给自己的脑子保留那个”停一下”的空档。

于是会出现几个变化。

文章在变好,你在消失。

AI很会组织句子。它会给你框架,给你过渡,给你一个”已经像文章了”的东西。问题是,文章感,不等于思想密度。很多人用了AI以后,文字更完整了,但观点更像模板了;结构更像样了,但真正属于自己的判断反而更少了。

因为最难的那一步——**从混乱材料里长出一个自己的观点**——被跳过去了。

你开始害怕”不知道”。

真正的思考,常常不是先有答案,而是先有一个咬人的问题。但AI的强项是给答案,而且给得很快。久而久之,人会越来越不习惯待在”不确定”的状态里。一有问题,第一反应不是琢磨,而是提问;一有模糊,第一反应不是梳理,而是求生成。

可学习、研究、写作、判断,这些事情的质量,很多时候恰恰取决于**你能不能在”不确定”里多站一会儿**。

省的是时间,还的是能力。

AI最诱人的地方是”立刻能用”。但认知能力有个残酷的特点:你不亲自做,它就不真正长。

就像孩子作文,老师替他把提纲列好、论点补齐、过渡句润色,最后交上去的也许是一篇不错的文章,但那个孩子并没有因此自动获得分析能力。

成年人也一样。

你让AI替你归纳多了,自己归纳的力气会降;
你让AI替你判断多了,自己判断的肌肉会松;
你让AI替你措辞多了,自己对语言的敏感度会钝。

这不是危言耸听。

这只是一个很朴素的道理:你用的能力,才是你拥有的能力。

 五

那么,AI到底该不该用?

当然该。

问题从来不是”用不用AI”。
问题是:你把AI放在哪个位置。

它可以是助手、搭子、起草员、资料整理员、观点挑战者、反对意见生成器。

但它不能轻易变成你的大脑、你的判断、你的立场、你的理解感来源。

这差别非常大。

有研究者提出了一个很有意思的方向,叫做”scaffolded AI friction”——给AI使用过程加入适度的认知摩擦,让人保留对过程的控制和审查,不让”顺滑”直接变成”放弃主权”。

以前人们总觉得,技术的方向就是越来越无摩擦。

在认知这件事上,完全无摩擦,未必是福音。

有些摩擦,是必要的。比如:

先自己写一句,再让AI改;先自己列三点,再让AI补充;要AI给答案时,顺便要求它给出推理依据;拿到AI总结后,回原文抽查三处;对一个结论,强迫自己问一次”反例是什么”;对一个漂亮的句子,追问”这句话到底有没有信息量”。

这些动作看起来慢。
但它们不是浪费时间。
它们是在保住你”还是你自己”的那部分能力。

 六

说到底,cognitive surrender这个词,真正刺人的地方,不在”认知”两个字。

而在surrender。

尤其是在不知不觉中的“交权”。

投降。交出。让渡。放弃本来应该由自己把守的那道关。

很多人谈AI风险,喜欢谈外部的:AI会不会取代人?会不会制造假信息?会不会改变行业?

这些当然重要。

但还有一种风险,发生得更安静,也更日常——

AI没有夺走你的脑子。是你自己把它交出去的。

不是某一天突然交出去的。
而是一点一点地交。

今天交出一个总结。
明天交出一个判断。
后天交出一个问题意识。
再往后,连”我到底该不该怀疑一下”这件事,也懒得做了。

于是最后,人并不是被AI打败的。
而是在一次次”这个我觉得AI说的不错”里,慢慢变得不再需要自己去怀疑和挑战。