AI 时代的学习方法:我们该问什么样的问题
最近我看到一个故事:一位 MIT 的研究生,用 48 小时让自己达到了能和导师就一门陌生课程深入对话的程度。他用的工具是 Google 的 NotebookLM。但工具不是我想强调的重点——今天很多 AI 工具都已经具备类似能力。真正让我在意的是,他使用工具的方式,让我重新思考了“学习”这件事。
一、一个颠覆常识的故事
这位研究生做了三件事。
第一步,他上传了 6 本教材、15 篇论文,以及他能找到的所有讲座记录。
第二步,他问了 AI 一个问题:“这个领域的专家共享的 5 个核心心智模型是什么?”
注意这个问法——他问的是心智模型,那种资深人士多年形成的思维框架。
第三步,他继续追问:“专家们在哪 3 个地方根本性分歧?各方最强论据是什么?”
于是,他拿到了这个领域的完整地图:共识在哪、争论在哪、未解难题在哪。大多数人原来需要花几个月才能搞清楚的事情,他在短时间内借助 AI 完成了。
最后,他让 AI 生成了 10 个”能区分真懂和死记”的问题,然后花 6 小时回答它们。每答错一次,就追问”我哪里错了,我漏掉了什么?”
48 小时后,他能和导师正常对话,不被问倒。
二、为什么是这三个问题?
我仔细想了想,这三个问题之所以有效,背后其实对应着认知科学里三个被验证过的原理。
第一个问题,对应的是”组块化”。
1970 年代 Chase 和 Simon 做过一个著名的国际象棋研究。他们发现,大师和新手看同一个棋局,新手记住的是孤立的棋子位置,大师记住的是”有意义的模式”——开局、兵形、攻防结构。专家的大脑并不是存储更多的信息,而是把信息压缩成了高密度的组块。一个有意思的细节是:当棋子被随机摆放、所有结构被破坏掉时,大师的记忆优势就消失了。
所以当你问”核心心智模型是什么”,你实际上是在索取这个领域的压缩算法。你跳过了自己试错压缩的漫长过程,直接拿到了成品。
第二个问题,对应的是”张力揭示结构”。
一个领域的共识部分,往往是已经解决的”死知识”。而分歧点才是活的前沿。知道分歧在哪,你就拿到了这个领域的未解难题清单、各流派的分野地图,以及所有重要论文的站队信息。
更重要的是,理解分歧会强迫你深度思考。要理解 A 派和 B 派为什么争,你必须先理解他们共同接受什么、各自的前提是什么、证据链是什么。一个争议问题,强迫你同时学四层知识。
第三个问题,对应的是”测试效应”。
2006 年 Roediger 和 Karpicke 的研究证明,主动回忆的学习效果,明显强于反复阅读——这一结论后来被多项研究反复验证。
单纯读资料,容易制造”熟悉感的错觉”——我看过,以为我懂了。而回答问题,会暴露真实的理解深度。
尤其关键的是那句”告诉我错在哪,我漏掉了什么”。研究还发现,犯错后立即得到反馈的学习效率,远高于一次就答对。这个过程不仅能补上具体的知识点,更重要的是能暴露思维框架本身的缺陷。
三、三个问题构成一个系统
把这三个问题放在一起看,你会发现它是个闭环:
- 问题 1
建立骨架:给大脑一个文件夹结构 - 问题 2
填充张力:让骨架变成一个有生命的争论 - 问题 3
压力测试:暴露结构缺陷,然后回到问题 1 迭代
它覆盖了三种不同的知识:结构性知识、批判性知识、元认知知识。而这三种,恰恰构成了专家知识中最关键的几块拼图。
这个过程其实是在直接索取专家的思维成品。他怎么组织知识、他觉得什么重要、他在哪里犹豫——这些原本要多年浸润才能习得的东西,现在可以用对话的方式部分获得。
这就像:
-
传统方法:自己从零摸索一张城市地图 -
新方法:先拿到地图,再去实地走
后者不能取代前者,但能大大降低迷路的成本。
四、如何实际用起来?
我自己整理了一套可以操作的流程,分享给有兴趣的读者。
准备阶段:
想清楚三件事——你要学什么(越具体越好)、你的目标层次(听懂 / 对话 / 决策 / 创造)、你有多少时间。如果这一步没有想清楚,后面的提问和学习很容易变得分散。
资料不用贪多,关键是搭配:1 到 2 本经典教材、3 到 5 篇里程碑文章、2 到 3 篇对立观点的文章、1 到 2 个从业者访谈。
如何快速找到这些资料?可以向 AI 这么提问:
我想学习 [领域],目标是 [你的目标]。 请推荐:1. 这个领域最权威的 2 本入门书 2. 必读的 5 篇奠基性论文或文章 3. 这个领域最有争议的 2-3 个观点及代表人物 4. 推荐的从业者访谈或播客
实战三阶段:
阶段一,建立地图。问核心心智模型,问它们之间的关系,让 AI 画出概念网络。验收标准:你能用 3 分钟向外行解释这个领域到底在研究什么。
阶段二,进入战场。问分歧、问历史演化。可以让 AI 表态:”基于资料,你会站哪一边?”——不要轻易接受”各方面都有道理”这种和稀泥的回答。但要提醒自己:AI 的”立场”反映的是它训练数据里的多数倾向,不等于这个领域真正的专家共识,把它当作一个值得参考的观点,不是结论。验收标准:你能说出”我倾向于 X 派,因为……但 Y 派的某个点也有道理”。
阶段三,压力测试(最重要)。让 AI 生成 10 到 15 个”能检验理解深度的问题”,然后关掉 AI,自己先回答。之后把答案交给 AI 评估。这一步最容易被偷懒跳过,但它才是整个方法的核心。
几个进阶技巧:
- 费曼测试:
向 AI 解释一个概念,让它找出你的解释哪里简化过头、哪里过于复杂。 - 边缘案例:
问一个心智模型在什么情况下会失效。理解边界比理解内容更能证明你懂了。 - 反向教学:
让 AI 扮演怀疑论者,你来解释,它来挑错。 - 知识地震:
每隔一段时间问:”我以为我懂了但可能理解错了的地方,有哪些?”
五、几个需要警惕的陷阱
这套方法不是万能的,有几个陷阱我也想提醒一下。
第一,AI 会自信地胡说,而你恰好没能力分辨。
这是整套方法最大的风险。
当你问”这个领域 5 个核心心智模型是什么”,AI 会给出一个听起来很对的答案。但你正是因为不懂才在学,你没有能力判断这五个里哪些是真共识、哪些是 AI 把表面相关的概念硬拼出来的。第二个问题更危险——AI 描述的”两派根本分歧”,可能是真分歧,也可能是它把次要争论说成核心争论,甚至是虚构出来的对立。
最低限度的防御措施:
- 交叉验证:
同一个问题问两个不同的 AI(比如 Claude、GPT、Gemini),差异点就是要重点核查的地方。 - 追问出处:
对每一个具体论断,问”这是基于哪本书、哪篇论文、哪个学者?”然后用搜索引擎核实——AI 编造文献和数据是常见现象。 - 找真人验证:
哪怕只是在某个论坛或社群发一句”我理解 X 领域的核心争论是 A 和 B,对吗?”——一个真专家两分钟就能告诉你答案是否离谱。 - 保留怀疑:
在见到原始资料之前,把 AI 给你的所有结论都标记为”待验证”。
第二,这套方法的天花板,取决于你已有的判断力。
那位 MIT 的研究生不是零基础——他本身已经具备评估学术内容质量的元能力,能在 AI 给出答案时察觉哪里不对劲,能在自己作答时分辨哪里是真懂、哪里是装懂。
把同样的方法给一个完全外行的人,效果会大打折扣。所以要清楚地知道:越是新手,越需要叠加上面那些验证手段。
第三,它不能替代实践。AI 给你的是地图,不是领土本身。48 小时能让你和专家对话,但不能让你成为专家。真正的掌握仍然需要时间。
第四,警惕”假学会”的错觉。读的时候都懂,一合书就不会——这是最常见的陷阱。对策只有一个:强制输出,走完阶段三。
第五,别让 AI 替你思考。AI 当查事实的工具当然没问题,但如果所有问题都直接问答案,学习就退化成了搬运。真正有效的用法,是让它当苏格拉底式的提问者——逼你澄清、挑你的错、陪你迭代。
六、一个更大的启示
这套方法背后,其实指向了一个更大的变化。
在 AI 之前,学习的主要瓶颈是信息的获取。谁能读到更多的书、听到更好的老师,谁就学得快。
在 AI 之后,信息的获取几乎是零成本的。瓶颈转移到了提问的能力——以及与之相伴的判断的能力:你能不能识别 AI 给你的答案哪里靠谱、哪里不靠谱。
一个学期和 48 小时的差距,内容量只是次要因素,知道该问什么、以及该怀疑什么才是主要的分水岭。
这或许是 AI 时代最值得培养的一种能力。
夜雨聆风