AI 与教育
孩子今天该学什么
一个五年级的孩子用 ChatGPT 写完了周末的读后感。文笔流畅,结构工整,用词比他平时好两个等级。他妈妈看完说不出哪里不对,但就是觉得哪里不对。她的直觉是准的——那篇文章里什么都有,唯独没有她儿子。这件事让我想了很久。不是因为 AI,是因为它把一个教育里一直存在、但大家可以假装看不见的问题,推到了聚光灯底下。
一篇什么都对的读后感
一个五年级的孩子用 ChatGPT 写完了周末的读后感。
文笔流畅,结构工整,用词比他平时好两个等级。他妈妈看完说不出哪里不对,但就是觉得哪里不对。
她的直觉是准的——那篇文章里什么都有,唯独没有她儿子。
没有他读到某一页时皱起的眉头,没有他自己也说不清楚的那个”可是我觉得……”,没有他把书扔到一边又拿回来的那个动作。那些东西不会出现在任何评分标准里,但那些东西就是学习本身。
AI 替他写了一篇满分的读后感。代价是他少了一次真正思考的机会。
这件事让我想了很久。不是因为 AI——是因为它把一个教育里一直存在、但大家可以假装看不见的问题,推到了聚光灯底下:
我们到底是在教孩子拿到答案,还是在教他们成为一个会想事情的人?
这个问题不是 AI 带来的。它一直在那里。AI 只是让我们再也绕不过去了。
答案免费之后
不知不觉中,一个事实已经悄悄成立:对大多数日常问题来说,获得一个”看起来正确”的答案,几乎不再需要成本。
翻译?GPT 直接给你。合同模板?三秒钟。一道高中物理题的解法?比你翻教辅快十倍。连代码都是——描述清楚需求,AI 就能写出一个能跑的版本。
如果你只看这一面,很容易得出一个结论:既然答案免费了,那教孩子”掌握知识”还有什么用?直接教他们用工具不就行了?
很多文章确实在这么写。但我觉得这里面藏着一道悬崖。
答案免费,不等于知识不必要。
让我举一个真实的场景。你让 AI 帮你写一份合同,它给出一份看起来很专业的文本——措辞准确,条款齐全。但里面可能有几处是它编的。这几处错误不会标红,不会闪烁,不会跳出来跟你说”这里我瞎编的”。它和正确的部分长得一模一样。
这时候,有没有能力看出哪里不对——就成了真实的分水岭。
而”看出哪里不对”这件事,靠的不是搜索能力,是你脑子里已经长进去的东西。你读过的案例,你踩过的坑,你在这个领域里形成的直觉。
我反复想到一个画面:AI 像一个无限慷慨的图书馆,什么都愿意给你拿。但要在这个图书馆里不迷路、不被骗、能找到自己真正要的那本——你脑子里得先有一张地图。
地图不是 AI 给的。地图是你自己长出来的。
“从零到六十分”被压扁了
这两年学 AI,我最大的收获不是学到了多少新东西,而是被它逼着重新想了一件事:学习,到底是在学什么?
在 AI 之前,大家默认的答案大致是:
学一个技能 → 反复练习 → 变得熟练 → 用熟练度换报酬 → 技能贬值 → 学下一个。
这个循环运转了几十年。然后 AI 把中间那一段——反复练习变得熟练——从几年压缩到了几分钟。Copilot 三秒钟就到了一个中等程序员要花三年的水平。GPT 直接跳过了一个翻译的五年积累。
但这里有一条很微妙的分界线。
AI 压缩的是”从零到六十分”的距离。从六十到九十分,依然需要深度理解。从九十到一百分,需要的是品味、直觉,以及对根本问题的长期思考。
这条线把”学习”一刀切成两半。熟练那一面,迅速贬值;理解那一面,反而升值了。
而我们的教育系统——不只是中国——几乎全部押在”熟练”那一面。刷题、背公式、套模板、反复练。这套训练生产的,正是 AI 现在做得最好的事。
这不是说”别学了”。基础的读写算,基本的英语,基本的编程逻辑——这些是和 AI 协作的起码门槛,缺了它们连 AI 都用不好。这就好像汽车时代,会开车不会让你有钱,但不会开车会让你寸步难行。
真正值得想的问题是:在”不掉队”之上,该把力气花在哪里?
三层根
我没有一个完整的答案。但这两年读各家学者、看各位前辈做的事,慢慢看出了一种结构。我把它叫”基底”——不是按顺序学完的清单,是同时长起来的根。
第一层根:认知的工具。
语言——能用文字精确说出脑子里那个还没成形的想法。不是单词背得多,是慢慢磨出来的精确。
数学——不是套公式,是抽象、建模、论证的习惯。周以真(Jeannette Wing)2006 年把这种习惯命名为”计算思维”,把它和读、写、算并列为基础能力。她说的不是编程,是会把一个复杂问题分解成可计算的、可抽象的、可重用的结构。
逻辑——能识别”诉诸权威”和”偷换概念”,能区分”相关”和”因果”。
阅读——不是读得多,是能在一段文字里察觉”这里不对劲”。阅读品味,是所有判断力的底层。
这些不是新东西。它们之所以重要,是因为没有它们,人不是不能思考,是只能在浅水里思考。AI 能帮你查、帮你算、帮你润色——但思考本身是发生在你脑子里的事,不是 AI 替你发生的事。
第二层根:对世界的内部模型。
人脑子里有一个”世界如何运转”的模型——由科学常识、历史脉络、空间感、身体经验拼起来。
你大概注意到——同一条新闻,有人一看就知道哪里不对,有人就被带着跑。差别不是聪明,是脑子里那张关于世界的地图够不够用。不懂”能量守恒”的人会被永动机骗;不懂概率的人会被赌博骗;不懂历史的人会把每一件新事都当成”前所未有”,反复在恐慌和狂热里来回。
而这一层里有一条特别容易被忽略——身体经验。能拧螺丝、会切菜、做过饭、修过东西、走过陌生的路。
这两年研究 AI 的人反复在提一件事:只读文字训练出来的”智能”是浅的;真正深的智能,要建立在与物理世界的交互之上。Yann LeCun 说过一句被引用很多的话:“一只猫从短短几个月的视频里学到的世界结构,比所有 LLM 加起来还多。” 李飞飞说:“语言只是智能的薄薄一层皮。”
如果连机器都需要身体经验才能真正理解世界——让孩子只对着屏幕长大,他长出来的判断力,能有多深?
第三层根:价值观与自我。
伦理——什么是对、什么是错。审美——能区分”好”和”差”。与人共处——共情、信任、合作、冲突里不失去自己。自我认识——知道自己想要什么、能做什么、为什么活着。
这一层没有标准答案,也没有捷径。它是在和别人、和自己、和具体的生活打交道的过程中,一点一点长出来的。
在 AI 把”做选择”的成本降到接近零的时代,知道自己想要什么反而成了最稀缺的东西。如果脑子里没有内在的尺度,你会变成一个漂浮的人——别人说什么好,就觉得什么好;AI 给你什么,就接什么。
这三层根不是新东西。几千年来,人类教育谈的就是这些。
AI 没有让它们过时——AI 让它们更加凸显出来。
走在前面的几个人
想这件事的过程里,有几个人的声音让我停下来想了很久。不是因为他们说了什么惊天动地的话,是因为他们在做的事情,和他们说的话是一致的。
Andrej Karpathy,2024 年 7 月离开所有大厂角色,创办了 Eureka Labs——一家把自己定位为”AI 原生教育公司”的创业公司。他自己亲手写过一个 200 行的纯 Python GPT 教学版本,免费开源——我用它给完全没有编程背景的人讲 Transformer,效果比任何教科书都好。他做这件事的信念:让学生看清这个魔法是怎么运作的,他就不会被它吓住,也不会被它骗倒。 这不是一个技术判断,是一个教育观。
Sal Khan 做的 Khanmigo 已经在美国上百所学校里被用作 AI 助教。他在 Brave New Words 里说了一句让我多想了一会儿的话——AI 不会让学生不需要老师,反而让好老师更值钱。因为 AI 能做”知识传递”,但不能做”激励、启发、判断学生此刻的状态、设定恰当的挑战”。这些恰恰是好老师的核心——而这些能力,全部长在我说的那三层根上面。
李飞飞在斯坦福开了 AI for All,把 AI 课程带到资源不足的中学。她和 LeCun 这两年反复提醒的事情指向同一个地方:如果智能不只是文字那一层,孩子的成长,大概也不只是屏幕上那一层。
Geoffrey Hinton 从 Google 离开后说过一段被反复引用的话:”我们没有时间慢慢等下一代孩子去面对 AI——但教错方向比教得慢更危险。” 什么叫教错方向?我理解他的意思是:把孩子培养成只会用 AI、不会判断 AI 的人,等于把他放进一个永远跟随的位置。
Yuval Harari 提出过四个词:Critical thinking, Creativity, Communication, Collaboration。四个词的共同点——都是 AI 暂时还做不好的、属于人之间的事。
把这几位的声音放在一起,我听到的不是”共识”,是几道从不同角度射过来、但落在同一片地面上的光——
多教思考,少教复述。多教判断,少教检索。多教提问,少教答题。
回到我们自己的处境
上面所有想法,如果搬到一个北欧或硅谷中产家庭,落地不太难——他们的孩子有大量自由时间,有不那么残酷的升学压力。
但中国家长面对的不是这个处境。
每年高考考生九百多万,985 录取率约 2%。教育在中国是改命的通道——对很多家庭来说,这不是口号,是历史经验。当一个机会窗口对应几百倍的报名者,激烈竞争是博弈论里的必然,不是哪个家长”不淡定”。
任何一篇说”放下焦虑、让孩子快乐成长”的文章,如果没有先诚实面对这个处境,它说什么都轻。
所以我不打算这么说。
我想说的是另一件事——竞争还会继续,但评判标准正在悄悄改变。
过去三十年,中国教育的评分标准简化讲就是一句话:谁能在标准化考试里给出更准确、更快的答案,谁就赢。这套标准曾经合理。但现在,给出标准答案这件事,GPT 一秒钟能给出几千个。
当答案免费,继续在”答得更快更准”上加码竞争,就是在一个已经被自动化的工序上拼体力。
所以也许——
在深度阅读上多花一点时间,在刷题上少花一点。
在真实的写作(每周一篇真东西,不是套作文)上多花时间。
在动手做事(做饭、修东西、做实验)上多花时间。
在和真人面对面相处上多花时间。
在持续专注上多花时间——能两小时不刷手机,可能是这一代孩子最难也最值钱的能力。
这些不是”该做的事”。是我自己慢慢形成的方向感。你可以不同意。
但写到这里,我意识到这篇文章还没有触碰一个更深的问题——教育这台机器,它真正在做的事,到底是在育人,还是在筛选?
当一个孩子花十几年通过层层筛选、练就一身本领,然后发现 AI 三秒钟就能做到——真正震动他的,也许不是工作没了,而是一个他从来没被教过怎么回答的问题:如果那些本领不是”我”,那我是什么?
这个问题太大,这一篇放不下。但它一直在那里。
几本可以放在手边的书
写到这里本来想列一份”必读书单”,但写到一半把”必读”两个字删了——没有人有立场说什么是必读。
下面几本,是关于”思考”和”学习”这两件事,值得翻一翻的书。它们的共同点不是”实用”,是作者在认真想一些没有标准答案的问题。
-
George Pólya,《怎样解题》——关于”思考过程本身”的小书。 -
Daniel Kahneman,《思考,快与慢》——人脑的两套系统,以及它们各自的盲区。 -
Douglas Hofstadter,《哥德尔、艾舍尔、巴赫》——自指、涌现、意识。读得下去的人,这本书会成为他思考的种子。 -
吴军,《数学之美》——把数学和现实世界连起来。 -
Sal Khan,Brave New Words——AI 与教育的当代讨论里,口吻最不焦虑的一本。 -
朱永新,《新教育》——回到中国语境。它不给答案,但它在认真问问题。
挑你眼前最想翻开的那一本就好。
回到那篇读后感
写到最后,我想回到开头那个五年级孩子的故事。
他用 AI 写了一篇满分的读后感。文笔流畅,结构工整,用词比他平时好两个等级。什么都对。唯独没有他自己。
也许他妈妈真正感到不安的,不是 AI 太强,而是——
那篇文章里缺的东西,恰恰是教育最该培养的东西。
一个孩子皱着眉头读一本书,读到某处停下来,说”可是我觉得不是这样的”——这个瞬间里发生的事情,比那篇满分读后感里的所有文字加起来都重要。
这件事,不是 AI 来了之后才成立的。AI 之前也成立。AI 之后尤其成立。
AI 只是把它从背景推到了聚光灯底下。
在一个答案越来越多、越来越快、越来越免费的时代,慢一点,问得真一点,想得深一点——反而成了最值钱的能力。
从今晚和孩子一起放下手机,读半小时书开始。
本文涉及的本博客文章
-
《那些”没用的问题”,是理解 AI 的入场券》 -
《你就是一个大模型——AI 给文理分科判了死刑》 -
《压缩即是全部》 -
《AI 的十字路口》
主要参考与延伸来源
-
Andrej Karpathy, Software Is Changing (Again), Sequoia AI Ascent 2024 keynote -
Andrej Karpathy, Eureka Labs 2024-07 创立公开信 -
Sal Khan, Brave New Words: How AI Will Revolutionize Education, Viking, 2024 -
Fei-Fei Li, The Worlds I See, Flatiron Books, 2023 -
Yann LeCun, A Path Towards Autonomous Machine Intelligence, Open Review, 2022 -
Geoffrey Hinton, 2023 NYT 专访 / 2024 Nobel Lecture -
Jeannette Wing, Computational Thinking, Communications of the ACM, 2006 -
Yuval Harari, 21 Lessons for the 21st Century, Spiegel & Grau, 2018 -
朱永新,《新教育》,中国人民大学出版社 -
George Pólya, How to Solve It, Princeton University Press -
Daniel Kahneman, Thinking, Fast and Slow
本文同步发表于博客
Jason-Azure.github.io/ai-blog
公众号:AI-lab学习笔记
夜雨聆风