一直用 AI,人会变笨吗?
昨天有人问了我一个问题。
他说:
如果你现在很多任务都交给 AI 来判断、出方案、甚至开始沿用方案去干活,那人会不会越来越笨?
这个问题不是随口问的。
因为我当时正在讲,我现在很多工作已经不是从零开始想了。
我会让 AI 读取我的数据库,结合我过去沉淀下来的案例、方法论、门店信息、内容系统和判断框架,先帮我形成方案。
然后我再回到现实生活里,组织人、安排事、推动执行。
有些重复性更强的工作,我甚至可以直接让 AI 沿着这套方案继续往下干。
所以对方的问题很自然:
如果一直这样,AI 做判断,AI 出方案,AI 动脑子,那人的大脑是不是会慢慢退化?
我的答案是:
会。
但这里面真正危险的,不是你用了 AI。
而是你开始默认把思考外包给 AI。
不是 AI 让人变笨,是默认模式让人变笨
我现在越来越觉得,未来人与人之间会出现一个很重要的分水岭。
这个分水岭不是:
-
• 会不会用 AI -
• 会不会写提示词 -
• 会不会找到最新工具
而是:
你在和 AI 协作时,大脑到底处在什么模式里。
有一种模式,叫默认外包。
AI 给你一个建议,你说:
好吧,就这么干吧。
AI 给你一个方案,你说:
不行,还有没有其他办法?
看起来你还在参与决策。
但实际上,你只是从 AI 给你的几个选项里做选择。
你没有重新定义问题。
你没有理解它为什么这么推。
你没有判断这个方案成立的前提是什么。
你也没有追问:这件事背后有没有一个更值得回答的问题。
时间长了,人就很容易退化成一个“方案选择器”。
AI 在前面推理,人只在后面点头、否定、换一版。
这才是真正会让人变笨的地方。
真正退化的,是复杂推导能力
很多人讨论 AI 会不会让人变笨时,容易把问题讲得很泛。
好像只要用了 AI,人就不思考了。
我不这么看。
低价值、重复性、纯执行的任务,本来就不值得每次都消耗人的认知资源。
比如整理格式、生成初稿、归纳会议记录、把一段材料转成清单。
这些事交给 AI,并不会伤害你。
甚至恰恰相反,它能帮你省出精力,去处理更重要的问题。
真正危险的是另一类任务:
那些会影响你长期判断力的任务。
比如:
-
• 一个项目为什么这么做 -
• 一个门店这个月到底该打什么主目标 -
• 一个内容选题背后真正的问题是什么 -
• 一个系统应该怎么设计边界 -
• 一个业务动作到底应该先验证什么
这些问题,如果你每次都直接让 AI 给答案,而你只负责说“可以”或“不可以”,那你确实会慢慢失去复杂推导能力。
因为你跳过了最关键的训练过程。
你没有经历从事实到判断的过程。
你没有经历从多个方案里拆代价的过程。
你没有经历从表层问题追到更底层问题的过程。
你只是拿到了结果。
而一个人真正变强,往往不是因为他拿到了结果。
而是因为他反复训练了得到结果的路径。
AI 应该是教练,不应该只是代工
所以我现在在重要项目里,会刻意给 AI 一个不同的指令。
我不会一上来就说:
帮我把这件事做完。
我会说:
你的第一目的不是立刻帮我完成工作,而是先出一套以教会我为目的的文档,先让我掌握。
这句话对我很重要。
因为它会把 AI 从“替我做事的人”,重新放回“训练我判断力的教练”这个位置。
我不是不要 AI 帮我做。
我当然要。
但在重要项目里,我要先知道:
-
• 你为什么这么判断 -
• 你基于哪些事实 -
• 你排除了哪些可能 -
• 这个方案成立的前提是什么 -
• 这件事如果失败,最可能败在哪里 -
• 有没有一个更高维度、更值得回答的问题
当我理解了这些东西之后,AI 再去执行,才是健康的。
因为这时候,我不是被 AI 带着走。
我是能够掌控方向的人。
人不能只做 AI 的甲方
很多人现在用 AI 的方式,其实很像做甲方。
他说一句需求,AI 出一版。
不满意,再出一版。
还不满意,再换一个方向。
这当然比以前快很多。
但如果长期停在这个模式里,人会形成一种错觉:
我好像还在掌控。
但实际上,你掌控的只是结果偏好,不是判断过程。
你只是知道自己喜不喜欢这个答案。
但你未必知道这个答案为什么成立。
你也未必知道它什么时候会失效。
更重要的是,你未必知道有没有一个更值得回答的问题。
比如你问 AI:
这件事该怎么做?
但真正有价值的问题,可能不是“怎么做”。
而是:
这件事现在该不该做?
或者:
我们是不是问错了问题?
或者:
如果只能做一个动作,哪个动作对现实世界的推动最大?
这些问题,不能完全交给 AI。
因为它们不只是智力问题。
它们还包含你的目标、代价、资源、责任和对现实世界的体感。
用 AI 变强的人,有一个共同动作
我现在会把 AI 使用者分成两类。
第一类人,用 AI 拿答案。
第二类人,用 AI 训练自己的判断。
第一类人会越来越快。
但不一定越来越强。
第二类人一开始可能慢一点。
因为他总是在追问 AI:
你为什么这么判断?
你这个方案背后的结构是什么?
如果我下次不用你,我应该怎么自己判断?
你能不能把这件事教会我?
但长期看,第二类人会越来越强。
因为他每一次和 AI 协作,都不是单次交付。
而是在升级自己的判断系统。
这就是我今天最想说的区别:
AI 不会自动让人变笨。
真正让人变笨的,是你把自己放在默认接受的位置。
当你只接受答案,你会退化。
当你学习推导,你会进化。
我的做法
所以现在在重要项目里,我会给自己设一个规则:
先学会,再外包。
不是所有事情都这样。
低价值的、重复性的、纯执行的事情,可以直接交给 AI。
但只要这件事会影响我的长期判断力,我就必须让 AI 先教会我。
我会要求它先输出一份面向我的推导文档。
不是为了写得好看。
而是为了让我掌握这件事的判断结构。
等我掌握之后,我才能对 AI 说:
这里不对。
这件事应该换一个方向。
我们不要急着回答“怎么做”,先讨论有没有一个更值得回答的问题。
到这个时候,AI 才真正变成我的放大器。
而不是我的替代品。
最后的判断
一直用 AI,人会不会变笨?
会。
如果你只是让 AI 替你动脑,然后你负责选择答案。
但也不会。
如果你让 AI 把推导过程摊开,让它教会你,让它陪你升级判断。
未来真正的差距,可能就在这里。
不是谁用了 AI。
而是谁在使用 AI 的过程中,还能持续训练自己的大脑。
也不是谁更快拿到答案。
而是谁能借助 AI,越来越会定义问题、理解结构、判断代价、掌控系统。
所以我现在不会问自己:
这件事能不能让 AI 帮我做?
我会多问一句:
这件事,我是应该让 AI 直接代工,还是应该先让 AI 教会我?
这个问题,可能会决定一个人是在 AI 时代变强,还是被 AI 慢慢用废。
夜雨聆风