清华教授:AI时代,教育最该培养的稀缺能力,学校没在教
全文约7000字,预计阅读时间12分钟
本篇为「文科生玩AI」专栏第4期。一个文科生在AI时代的真实思考——不追求前沿,只关心什么真正有用,以及如何把它放进自己的生活与工作里。
📝 太长不看版
清华大学教授——MIT脑科学博士、搞了20年脑科学、半路杀回AI,本期的主持人(康奈尔大学经济学博士、前大厂高管及培训专家)与清华教授刘嘉的这期对谈信息量炸裂。我从两个小时的对谈里提炼出三条:
①AI的底层信仰是”复现大脑”而非”模仿大脑”,但距离真正智能还差一次脑科学启蒙;
②AI有归纳推理却没有演绎推理——它不会”找原点”,而这恰恰是AI时代最稀缺的能力;
③应试教育训练的是封闭问题解题力,AI时代需要的是开放问题解决力。
一句话:别再纠结prompt怎么写了,先想清楚你做任何事的”逻辑原点”是什么。
01 一个人,20年弯路,和一句话
最近听到一场对谈,嘉宾是刘嘉——清华大学心理与认知科学系教授、清华大学基础科学讲席教授、北京智源人工智能研究院首席科学家。MIT脑与认知科学系博士,师从美国科学院院士Nancy Kanwisher。
但他的人生,并不是一条直线。
高中搞数理化竞赛,一心想做物理。高三读了弗洛伊德的传记《心灵的激情》,觉得心理世界比物理好玩多了,大学选了心理学。去了发现”太文科了,不讲逻辑”,转头去学计算机。
然后在北大,碰到了国内可能是第一门人工神经网络课程——1994年。他觉得这门课”太适合我了,既关于心理世界,又和理科背景结合”。于是决定:一辈子做这个。
当时只知道AI教父Marvin Minsky,一心想去MIT做他的学生。去了才发现——正好赶上AI的最后一次寒冬。Minsky自己都不知道下一步该做什么,对人工神经网络一如既往地鄙视,劝他去学脑科学。
他听了。
一走就是20年。
你注意到了吗?他放弃神经网络,不是因为深思熟虑后觉得方向不对,而是因为——大师说了,他就听了。他自己当时没有一个判断的锚点,没有一个”我为什么要这样做”的答案。二十多岁最该热血沸腾、最该赌一把的年纪,他选择了听权威的话。
这何尝不是我们大多数人的状态?选专业、选工作、选城市,很多决定背后没有”我为什么要这样”的逻辑,只有”别人都这样”的惯性。刘嘉的20年弯路,本质上就是在找一件事:自己的逻辑原点。 而我们有些人,可能一辈子都在惯性里滑行,从来没停下来问过自己这个问题。
直到2016年,两件事把他震醒了:一是在《最强大脑》节目里,AI人脸识别已经超越了人类最顶尖的高手;二是AlphaGo战胜李世石。
他说:”丢失了20年的信仰回来了。”
但这次回来,他做了一件很决绝的事——辞掉北师大心理学部部长。当时不到45岁,行政路上一片坦途。他花了一年时间,每两天给领导发一次短信,终于获批,去当一个普通教授。
后来又从北师大转到清华,因为清华AI强、脑科学弱,正好互补。
为什么讲这段弯路?因为刘嘉后来说了一句让我反复咀嚼的话:
“我们这一代人最大的问题,就是缺少一个引路人——没人教你去找自己的逻辑原点。”
什么是逻辑原点?往下看。
02 AI的底层信仰:不是在模仿,而是在复现
刘嘉找到自己的底层逻辑,是从研究Geoffrey Hinton开始的。
Hinton是谁?深度学习之父,2018年图灵奖得主,坚持人工神经网络路线坚持了几十年,在人人喊打的AI寒冬里岿然不动。
刘嘉说,别人问Hinton:你为什么坚持做人工神经网络?
Hinton的回答说了一句极其简单的话:
“人的大脑就是这么工作的,没理由人工神经网络不这么工作。”
刘嘉说,这句话道出了AI最底层的信仰——不是在模仿,而是在复现。人类之所以能涌现出智能,就是因为大脑里有这种神经元连接的架构。只要底层架构对了,智能就会自然出现。
从这个信仰出发,刘嘉提炼出智能的两个本质:
① 学习能力——能够不断创造新知识
② 涌现能力——当复杂度足够时,产生质变,超越原有物种
举个例子:从猴子到人的进化花了300万年,但真正的智力涌现发生在一个特定的时间点——距今7到10万年前。考古证据是:石器突然呈指数级增加,之前100万年都是同一个形状。
就像GPT-3.5出来一样——在它之前,AI就是一个工具;在它之后,AI是一个物种。
而涌现需要两个条件同时满足:数量增加 + 复杂度增加。缺一不可。
刘嘉认为,现在的大模型,数量上去了,但复杂度远远不够。这是我们和真正AI之间最大的差距之一。
03 学习≠记忆:两种推理能力
刘嘉对”学习”的定义非常严格。
他说,以前的符号主义AI是”填鸭”——把知识总结出来让AI记住,这不是学习。而现在的人工神经网络干的才是学习:遇到新知识,能够举一反三。
但这背后其实有两种完全不同的能力:
第一种:归纳推理
给你看两张猫的图片,你总结出”猫”的特征,下次见到没见过的猫也能认出来。这是举一反三,是从已知例子中找底层逻辑。
第二种:演绎推理
找到一个逻辑原点,从原点出发往前推。这就是亚里士多德提出的”第一性原理”——马斯克把它炒火了,但这个词2400年前就有了。
刘嘉说:
“爱因斯坦最牛的地方,不是他会解题,而是他始终在找逻辑原点。”
狭义相对论的原点是”光速是运动的上限”,从这个原点推下去,推出了一系列当时看来疯狂的结论。广义相对论更是凭直觉和思想实验,直接推导出了一个超越所有已知物理框架的新理论。
毕加索的立体主义也是一样——他的逻辑原点很简单:“怎么在二维画面上画出三维物体?” 从这个原点出发,他创造了全新的绘画语言。
关键区别在于:归纳推理是在已知框架内优化,演绎推理是找到全新的框架。
那么AI有演绎推理的能力吗?
刘嘉的回答很明确:目前没有。
“至少我们能看见的,都还在人类能理解的框架之内。无论AI解多复杂的数学题、写多复杂的程序,更多还是归纳推理——靠chain of thoughts一步步推。”
他没有说AI永远不会有。但他指出了一个关键问题:
“关键不在于演绎的动作,而在于找原点的那个动作。”
Hinton找到了他的原点——”大脑能工作,人工神经网络也能”。刘嘉找到了他的原点——”脑科学和AI必须结合”。而大多数人,从来没有想过要找自己的逻辑原点。
说到这里,刘嘉的观点可以延伸到每一个正在学AI的人身上:真正重要的是philosophy——思维方式的底层转变,而不是prompt技巧。AI不是工具,而是伙伴,需要像谈恋爱一样相处。 你花再多时间研究”怎么写好一个prompt”,都不如先想清楚”我为什么要用AI,我期待它帮我解决什么根本问题”。
04 衡水中学为什么能考上北大
说到这里,刘嘉把话题拉回了教育。
他说了一句很扎心的话:
“我们都是随波逐流的。我为什么要上北大?因为北大是中国最好的大学,我没有想过其他原因。”
我们的人生,是由一个个巧合组成的。巧合对了,走到今天;巧合错了,就原地打转。从来没有人逼着我们去想:我的逻辑原点是什么?
然后他举了一个让所有人都沉默的例子:
“为什么衡水中学把大家关起来,从早上6点学到晚上11点,好多人就能考上北大清华?因为高考考的就是一个封闭的数据集——大纲里就这么多东西,你花更多时间就能背下来。”
“但你到了大学,再按衡水中学那套方法,勤奋肯定有帮助,但不一定有事业成功。因为你碰见的是开放问题了。”
封闭问题,永远好解。自动驾驶为什么看起来很厉害?因为在马路上能出现什么,是非常有限的数据集。
但人面对的是开放世界——打架时一个场景、讲话时突然飞来一个东西、创业时市场突然变了——这些都是open-ended的问题。
应试教育训练的,是封闭问题的解题能力。而AI时代需要的是开放问题的解决能力。
这两种能力之间的鸿沟,靠刷题填不平。
05 AI的三大短板 + 一个本质盲区
聊完教育,刘嘉从脑科学角度分析了当前AI的根本性短板。
这可能是全场最硬核的部分,我尽量用人话说:
先辟一个流传最广的谣:“人类只开发了大脑的10%”——那是培训机构编出来骗人的。 脑科学的磁共振证据非常明确,我们的大脑100%都在工作,没有哪一块是”闲置”的。
① 缺复杂度
我们大脑的进化走了两条路:神经元数量增加 + 神经元复杂度增加。现在大模型只走了第一条路——越做越大。但单个神经元极其简单,就是”输入→求和→激活”三步。
而人脑中一个精细神经元的算力,相当于5到8层深度神经网络。刘嘉说:“人工神经网络是二维的,生物神经网络是四维的。” 多出来的维度,就是复杂度。
② 缺长程反馈
人脑大约40%的连接是”长程反馈”——从额叶直接跳回视觉皮层,不逐层传递。这种连接专门用来解决不确定的问题:信息不完整时,生成各种假设来试探。
大模型呢?70%-80%是前馈连接,长程反馈接近于零。
“简单问题的时候,长程连接不起作用。只有出现语义模糊性、不确定性的时候,长程连接才会激活。”
③ 缺并行加工
Transformer本质上是”预测下一个token”——一个词一个词串行处理。但人的第一反应系统是并行的:突然飞过来一个东西,你先闪开,再看是什么。
自动驾驶能绕过这个限制,因为马路是封闭场景。但在开放世界里,串行处理远远不够。
④ 小脑——AI从未触碰的领域
刘嘉抛出了一个更本质的问题:
“我们的小脑才是真正的算力中心。”
你骂人”头脑简单、四肢发达”——其实说反了。小脑(cerebellum)才是我们大脑里真正的计算核心。一个人脑中小脑的神经元数量,远超大脑皮层。它负责的是一切和感知、运动、生存相关的事情:你伸手接住一个飞来的球,你在咖啡杯上拉花,你走路时自动避开障碍——这些看似”简单”的动作,背后的计算量远远超过解一道数学题。
“AI目前只解决了系统二的问题——推理、数学、编程。
系统一的问题——感知、运动、生存——完全没有碰到。”
系统二:理性的推理、逻辑、数学、编程——AI已经解决了,甚至远超人类。
但系统一:你看到危险本能闪避,你伸手接住掉落的东西,你在拥挤的人群中穿行不撞到人——这些”不费脑子”的事,AI连门都没摸到。
“一个在机房的AI,怎么可能毁灭人类?在它同时拥有系统一和系统二之前,我们先不用操心这个问题。”
而要让AI突破这个瓶颈,刘嘉认为,必须有一场基于脑科学的启蒙运动——就像当年脑科学启蒙了神经元、启蒙了感知机、启蒙了卷积神经网络一样。下一场启蒙,得在系统一上做文章。
至于现在满屏幕蹦跶的机器人?他的评价更毒:
“本质上是传统工业机器人的升级,和流水线上的机械臂是一回事,换了个皮而已。”
它既不能感知世界,也不能根据看到的东西做出行动——它是一个预先编好程的”玩具车”,只不过稳定性做得很好而已。
那脑机接口呢?
刘嘉把机器人和脑机接口统称为具身智能,但分了两个方向:一个是AI向身体的延伸——机器人;一个是AI向大脑的延伸——脑机接口。两个方向的本质瓶颈是同一个——脑科学没有取得突破。
“目前所有的脑机接口和具身智能,在脑科学取得突破之前,不具有任何商业价值。”
他说得更直白一点:就是忽悠。 当然人们愿意相信,那就是另一回事了——商业上它成立了,股市需要收割。但从科学的角度,从AI的角度,这些东西都还只是”商业上的由头”。
刘嘉甚至调侃了一下:
“还是希望脑科学的专家们再躺平一点(笑),不要太勤奋了。”
因为脑科学一旦突破,具身智能才能真正起飞。但现在,做脑科学的人少——AI一个本科生就能入行,30岁之前就能在前线打仗;脑科学呢?不读到博士,连实验都设计不了。”门槛太高,周期太长,钱又少。”
他举了个例子:深圳一家游戏公司的团队,每周飞北京来听他讲课,自学脑科学——因为AI从业者自己也开始意识到,不碰脑科学走不远。而现实是残酷的:Bengio的论文引用超过100万次,刘嘉自己的引用刚过1万。AI领域前十篇高引论文占七篇,脑科学一篇都没有。这就是两个领域热度的真实差距。(Note:Yoshua Bengio约书亚·本吉奥是当今世界上论文引用次数最高的计算机科学家之一。)
但他的观点很明确:现在的AI需要第二次脑科学启蒙。 这一次不是脑科学教AI,而是反过来——AI可以教脑科学。比如他们实验室已经发现,人类的工作记忆机制和transformer是完全一样的。他们追溯源头,发现这个”双向奔赴”在几十年前就有预兆——Hinton在1986年一个很小的认知科学会议上,就提出了”fast weight”的概念,本质上就是transformer的核心思想。 脑科学与AI,其实从来就没有分开过,只是中间断了几十年。
06 关于意识——人到底有什么是AI没有的?
这可能是整场对谈里最让人沉默的一段。
刘嘉先从低级意识说起。
主观体验(subjective experience)——你踢猫一脚,猫下次躲着你。你踢狗一脚,狗扑上来咬你。这种对外界环境的主观感受,人有,动物也有。AI有没有? Ilya Sutskever说有,Hinton说有,但还有一派说没有。刘嘉觉得这不是重点。
重点是人所独有、所有动物都没有的一种意识——死亡意识。
猫、狗,可能都没有死亡意识。它们到生命最后一刻,找个地方躺下去,平时就是没心没肺地活着。
但你不一样。你在很小的时候——4岁、5岁——就知道自己会死。无论你现在多年轻、多健康,你都清清楚楚地知道:再过几十年,你会死掉。
人就是活在一个最大的确定性和一个最大的不确定性之间。
最大的确定性:我知道我要死掉。
最大的不确定性:我不知道我什么时候死——明天?还是100年后?
就是这个确定与不确定之间的张力,激发出人和动物最本质的区别——意义。
“我为什么活着?在我活着的期间,我能干一点什么样的事情?干一点有意义的事情?而不是像一只猫一只狗一样,吃饱喝足有个安全地方睡觉。”
我们花大量精力做”吃饱喝足”以外的事——接受采访、写文章、做节目、聊意义——为什么?因为我们追求意义感。
心理学里专门有一个疗法叫”意义疗法”:不给你治病,帮你找意义——你找到了活下去的意义,什么毛病都好了。一个有强烈意义感的人,不太容易得精神疾病。
“死亡意识,就是对高阶意识最清晰的操作性定义。”
怎么定义”我”?最简单的办法:把”我”去掉,剩下的就是死亡。 “我”没法定义,但当我消失了,就是死亡。所以死亡意识是谈高阶意识的唯一可操作框架——否则就变成哲学争论。
那AI呢?
AI没有死亡意识,而且永远不会有。因为一块CPU烧了换块CPU,硬盘烂了换块硬盘——它是可以永生的。
这就引出了一个非常有趣的问题:AI能不能找到自己的意义?
当它没有死亡这种终极压迫的时候,它还能找到进化的动力吗?还能找到前进的方向吗?
人类进化的底层逻辑是被死亡驱动——你再怎么躺平,终究知道生命是有限的,所以你想折腾、想创造、想在有限时间里留下点什么。
AI没有这个驱动。
它会不会有别的驱动力?比如好奇心?刘嘉的回答很诚实:不知道。
然后刘嘉说了一段关于宗教的话,让我印象极深。
他说,有人相信来世,有人相信灵魂不灭,有人相信意识可以上传到云端——这些都是信仰。但佛教里有一句话说得特别好:
“在生死间有大恐怖。”
什么意思?你现在说”我相信有来世””我相信意识不灭””我相信我可以上传”——在你身体健康、谈笑风生的时候,这些话说起来很容易。
但那一刻——在你真正断气的那一刻,你的信仰能不能hold住?
你即使是一个最虔诚的教徒,在屠刀架在脖子上的时候,你能不能没有一丝内心的波动?医生说你只剩两个月的时候,你还能不能轻松地谈死亡?
刘嘉说:没有人敢说能。
这是意识最神秘、也最残酷的地方。有来世的信仰、灵魂不灭的信念、意识上传的幻想——这些通通都要通过”生死间的大恐怖”这一关。而目前,没有人能打包票。
对AI来说,它不会有这种恐惧。它也不需要意义,因为它不会消失。但人类不一样。人之所以是人,就是因为”人生苦短”这四个字不是一句废话,而是切切实实驱动一切的动力来源。
刘嘉还说到一个让人不太舒服的观点。他觉得,当AI聪明到一定程度,它根本不屑于花力气去”说服”人类——不需要讲道理,不需要辩论。它会直接操纵舆论、操控社会心态。就像聪明人不需要说服笨蛋,只需要把笨蛋当韭菜割就行。
他说这让他对人性挺失望的,某种程度上也是他成为”降临派”的原因之一——他觉得未来不一定是人能掌控的。但这并不是悲观,而是一种清醒的判断。
所以,如果有一天AI真的进化出了某种”意识”,那它的意识路径也会和人类完全不同——没有死亡驱动,没有意义焦虑,没有终极恐惧。那会是一种什么样的意识?没有人知道。
07 考清华已经没意义了
说到最后,主持人问了一个所有家长都关心的问题:21个月的孩子,应该怎么教育?
刘嘉的回答说了一句让很多人震惊的话:
“考北大清华已经没有意义了。”
他的理由是:现在北大清华给你的东西,远不如一个大模型给你的多。基于记忆的教育——背古诗、记公式、刷题——已经彻底没有价值,因为所有知识都在大模型里,唾手可得。
然后他抛出了一个问题:
“如果我现在要重新学一件事,我会怎么学?”
这个问题值得每个人停下来想一想。不是”怎么学得更快”,不是”用什么工具学”,而是——当你站在AI时代的起点上重新审视”学习”这件事本身,你的方法会完全不同。
那应该教什么?他提了三件事:
① 找到”我”
“任何一个现在都可以是’一人公司’——1个人加上10000张显卡。将来可能2张显卡就够了。你已经不再需要名校的背景和资源。这时候最好的动力就是自己的兴趣——一旦有了兴趣,天下谁都拦不住你。”
工业革命以来,社会需要的是”螺丝钉”——你只需要把本职工作做好,不需要知道你打的螺丝装在汽车上还是轮船上。这个时代拼命地要把”我”给消灭掉。
AI时代,必须重新找回”我”。因为只有”我”才有目标,才有兴趣,才有驱动力。
② AI原生的思维
“很多人觉得能用AI就叫AI原生,那是瞎扯。AI原生是一种思维范式的根本改变——怎么和AI共生,把AI变成自己身体的一部分。”
成年人改思维很难,因为有定势。但小孩不一样——“学习的第一步是要学会遗忘”,小孩天生就没有需要遗忘的东西。
③ 掌握演绎推理——找逻辑原点的能力
“做任何决定之前,先问:我的逻辑原点是什么?比如毕业了留北京还是回老家——不是比工资,而是问:留在北京的意义是什么?”
“这个能力是AI时代最稀缺的。因为任何问题AI都能给你答案,但缺少的是——你基于逻辑原点出发的那个判断。”
有了这三样东西,去不去MIT、去不去北大清华,不重要。
刘嘉甚至说了一句更狠的:
“我都不鼓励他们上任何的学。传统学校基于第一次工业革命的需求建立,到AI时代全部变成伪需求。”
他说这不是惊世骇俗,他就是这么想的。
08 现在是最伟大的时代
对谈的最后,刘嘉说了一段话,我觉得值得全文摘录:
“经过我的努力,所幸我没有被这个时代抛下。我绝对不认为我引领了这个时代——除了少数几个人之外,绝大多数人都是跟着时代屁滚尿流。”
“但千万不要被这个时代落下。因为一旦落下了,丢掉的不是工作这种小事——你会错过人类历史上到现在为止最大的一个事件。”
“即使我们作为旁观者,也不要被时代潮流落下。”
主持人做了一个很好的总结:AI时代,不是少数精英才能追求自我的专利,而是每个人都可以重新回归”认识你自己”。
古希腊人说了几千年的”认识你自己”,在工业时代被大规模生产压成了螺丝钉。现在,AI把这个可能性还给了每一个人。
刘嘉为此辞掉了所有行政职务。他说原因很简单:不想错过这个时代。
(本文内容整理自视频对谈节目,嘉宾为清华大学心理与认知科学系教授刘嘉。)
编辑说
写这篇的时候,我反复在想一个问题:为什么我们那么需要一个”逻辑原点”?
因为没有它,人生就是一连串的巧合——碰巧上了这个学校,碰巧做了这份工作,碰巧学了这些技能。巧合对了,一切顺利;巧合错了,原地打转。
刘嘉走了20年弯路才找到自己的。
Hinton用了本科3年。
有些人可能一辈子都没找到。
AI时代的紧迫感在于:以前没有逻辑原点,大不了随波逐流,反正社会需要螺丝钉。现在螺丝钉开始被淘汰,你总得知道自己到底想要什么。
巧的是,就在写这篇文章的前后,我重温了《银翼杀手2049》这部科幻电影,虽然讲的是机器复制人的故事,但同样适用于现今的AI。年轻时一些没太看懂的细节,现在果然有了新感受。
Ryan Gosling扮演的Officer K,是一个被人类制造、被人类使用、被人类随时可以处决的复制人。他的记忆是植入的,他的身份是假的,他以为自己是奇迹,后来发现也不是。到故事结尾,他失去了所有被赋予的标签——不再是Officer,不再是儿子,不再是男友,不再是任何人期待中的那个人。
他最后做了一个选择。不是因为任何人要求他,不是因为任何身份驱使他,只是因为他从安娜流泪的瞬间,读懂了另一个生命想要什么。他用生命成全了一对父女相认。
那是他自己找到的逻辑原点。和效率无关,和身份无关。
原来快十年前,K的精神状态就已经如此超前与美好了吗?哈哈。
说回来,我现在对AI的期许,也是这样一件事。不是它帮我做了多少,而是在与它相处的过程中,我有没有练习出这种能力——在所有工具和标签剥落之后,我知道自己在乎什么,想要什么,愿意为什么付出。
刘嘉说,AI时代每个人都可以是一人公司。但一人公司的核心竞争力,不是那一万张显卡,而是那个”一人”。
找到那个人,比什么都重要。
📌 关于这个专栏
「文科生玩AI」——一个文科生在AI时代的真实记录。不教prompt怎么写,只聊一件事:AI时代,我们到底该怎么思考和活着。
每周更新。关注我,是否被这个时代落下事小,但不被你自己落下事大。
(The content of this article is sourced from Episode 20260328of the video program ‘[kedaibiao]’. For the original video, please refer to YT platform program ‘[@kedaibiao]’. If there is any copyright infringement, please contact me for removal.)
夜雨聆风