AI会不会拉平人类认知水平
这是个值得认真想的问题,而且我觉得答案比直觉上更复杂——AI 既会强烈地拉平某些层面,又会前所未有地拉开另一些层面。问题的关键是分清哪些是哪些。
一、“拉平”的担忧到底在担忧什么
先把这个直觉拆开。当人们说”AI 会拉平认知”时,其实混在一起说了好几件不同的事:
输出的同质化——所有人用同样的模型,写出来的文章、代码、设计风格趋同。
思考过程的外包——人不再自己推理,遇到问题就问 AI,思维肌肉萎缩。
视角的单一化——模型有自己的偏好(训练数据、RLHF 倾向),所有用户被悄悄推向同一种世界观。
知识门槛的消失——以前需要多年训练才能掌握的东西现在人人可得,专家与外行的差距缩小。
这四件事方向不一样,有的是坏事,有的其实是好事,得分开看。
二、历史上每一次”认知工具革命”都有同样的恐慌
苏格拉底在《斐德若篇》里反对文字,理由是:人一旦能写下来,就不再用心记忆,“获得的是健忘,不是记忆;是智慧的表象,不是智慧本身”。这个论证今天读起来是不是异常熟悉?
印刷术出现时,有人担心廉价书籍会让深度阅读消失。
计算器出现时,有人担心心算能力退化。
搜索引擎出现时,有人担心人不再记忆任何东西。
GPS 出现时,有人担心方向感丧失——这一条已经被研究证实了,伦敦出租车司机海马体的萎缩是真的。
所以”工具会改变认知”这个判断几乎肯定是对的,但它会怎么改变、改变是好是坏,需要更细的分析,不能停在”退化”这个直觉上。
苏格拉底的担忧有一半成真了(人确实不再记忆长篇文本了),但另一半完全错了——文字非但没有消灭智慧,反而让哲学本身得以积累和发展。苏格拉底的思想能流传到今天,恰恰是因为他反对的那个东西。
三、AI 会真实地”拉平”哪些东西
诚实地说,会发生这些:
写作的中位数水平会被拉到一个新的标准线上。所有商务邮件、产品文案、学术摘要的”基本款”会变得难以分辨——因为大家都用类似的工具润色到类似的标准。这一层的同质化是真实的,已经在发生。
初级专业能力的稀缺性会下降。入门级编程、基础法律咨询、常见医学问题——这些”懂一点就值钱”的领域,门槛会被显著抹平。
主流观点的传播会被加速、加固。模型反映的是训练数据的统计中心,少数派、边缘视角、未被大量书写过的传统知识会进一步弱势。这一点对中文世界尤其值得警惕——很多本土经验、方言性思考、口传知识在数据里本来就少。
思考的”摩擦感”会减少。写作之所以能锻炼思维,是因为它强迫你把模糊的想法变成精确的句子,这个过程很累但很关键。AI 帮你跨过这个摩擦,意味着你也跨过了那段思考。
这些都是真的,不能否认。
四、但 AI 同时会前所未有地”拉开”另一些东西
这一面常被忽略,但同样重要:
会用 AI 和不会用 AI 的人之间的差距,会比以前任何工具时代都大。这不是”会不会用”的差距,而是“用它来做什么”的差距。同一个模型,有人用它写水文,有人用它做出原本需要十个人团队才能做的研究。差距来自提问的能力、判断输出的能力、把 AI 嵌入复杂工作流的能力——而这些能力本身高度依赖你已有的认知深度。
有清晰品味和判断力的人会被极大放大。因为 AI 能极快地生成大量可能性,真正稀缺的变成了“知道哪个是好的”——这恰恰是最难外包的能力。一个有审美的设计师配 AI,效率提升 10 倍;一个没审美的人配 AI,只是更快地产出平庸。
问”对的问题”的能力变得空前关键。以前,问题模糊没关系,因为你也得花很久才能找到答案,过程中问题会被打磨清楚。现在 AI 几秒钟给你一个答案——如果问题本身是平庸的,答案也会是平庸的。提问质量直接决定产出质量。
深度阅读、独立思考、原始观察这些”无法被 AI 替代的输入”反而升值了。因为 AI 训练在已有文本上,任何 AI 都给不了你的东西,是你亲身经历的、还没被写下来的、或者从交叉领域突然连接起来的洞见。这一层的护城河比以前更深。
所以真实的图景不是”所有人变得一样”,而是“中位数被抬高,但分布的尾部被拉得更长“——平庸的会更平庸(因为不再被迫思考),而有判断力的会更强(因为放大器接入了)。
五、一个更深的层次:AI 会改变”思考”本身的定义
这一层比前面所有担忧都更根本。
文字出现后,“思考”不再只是大脑里的活动,而变成了”用文字组织思想”——书面语本身重塑了什么叫推理、什么叫论证。柏拉图之后的西方哲学几乎全部是”文字性思维”的产物。
印刷术之后,“长篇连贯论证”成为思想的标准形态——一本系统性的书。康德的《纯粹理性批判》这种文体在口传时代是不可能存在的。
互联网之后,“思考”开始变得碎片化、关联化、超链接化——这是为什么今天的写作越来越短、越来越多线索并置。
AI 之后呢?我们可能正在进入一个“思考是一种与模型的对话过程”的时代。一个想法不再是”我自己想出来的”或”我从书上读到的”,而是”我在和某个智能系统的反复交互中形成的”。这既不是退化也不是进步,是一种新的认知形态——就像文字相对于口传不是退化也不是进步,而是不同。
担心”人会变笨”,部分是因为我们用旧的”思考”标准在衡量新的认知方式。但同时——这一点必须诚实——新的认知形态确实会让某些旧的能力萎缩,就像识字让人不再背诵《伊利亚特》。问题是:萎缩的那部分重要吗?新长出来的那部分够不够补偿?
这个问题没有先验答案,要看人类如何使用 AI。
六、所以真正的问题不是”AI 会不会拉平认知”,而是
“我们会主动选择被拉平,还是会主动选择被放大?”
被拉平是默认选项——因为它不费力。打开模型,接受第一个答案,复制粘贴,结束。这条路上,人确实会同质化、会变浅、会丧失思考的肌肉。
被放大是反默认选项——它要求你做一些反直觉的事:
• 在 AI 给出答案后还继续追问,而不是接受第一个版本;
• 把 AI 当作辩论对手而不是答案机器,让它挑战你的想法;
• 守护那些无法被 AI 替代的输入源——亲身经历、原始材料、深度阅读、长时间散步、与具体的人长时间相处;
• 训练自己判断 AI 哪里错了的能力,这种能力只能从扎实的领域知识来;
• 偶尔主动关掉 AI 做事,保持某种思维上的”野外生存能力”。
这有点像健身房和电梯。电梯让所有人轻松上楼,这是好事。但如果一个人只坐电梯,身体会退化。聪明的做法不是拒绝电梯,而是知道什么时候该走楼梯。
一个不那么乐观的尾声
但说实话——大多数人不会主动选择”被放大”。这不是道德问题,是结构问题:阻力最小的路径永远最有引力。所以人群层面的认知中位数同质化,几乎是肯定会发生的。
真正的不确定性在于:那个”被放大”的少数会有多少人?他们会形成新的认知精英,还是会被同质化的洪流稀释掉?
这个问题没有人知道答案。但它值得每一个看到这个问题的人——包括你和我——把它当作关于自己如何使用 AI 的具体问题,而不只是关于”人类”的抽象问题。因为”人类会不会被拉平”这个问题,最终是由每一个个体的选择加起来回答的。

夜雨聆风