
最近集中听了几场关于AI的访谈,信息量不小,想写点东西整理一下思路。
反复在想一个问题:当AI以周为单位迭代进化,我们这些碳基生物,究竟凭什么还能留在牌桌之上?
有学者在讲座里提到一个观点,我觉得很有道理:有两样东西会越来越重要——审美能力和发现问题的能力。
01 硅基和碳基之间,有一些相通的东西
先说一个挺有启发的观察:AI的结构和人脑的运作方式,其实有不少相似的地方。
比如现在大模型普遍用的Transformer架构,它的理论源头可以追溯到几十年前一篇神经科学会议上的论文。神经网络的分层设计,本质上就是在模仿人类神经元的连接方式。大模型从海量数据里提取特征、形成表征的过程,和大脑从经验里抽象出概念的过程,在逻辑上是类似的。
还有一个关于模型“顿悟”的研究也很有意思。研究发现,AI从“死记硬背”到“真正理解”,中间有一个明确的临界点。数据量不够的时候,模型只是在记忆;数据量一旦突破某个阈值,它就会突然发生质变,能把学到的规律用到没见过的问题上。这个过程和我们学东西很像——比如学骑车,摔了很多次之后,某一个瞬间突然就会了,而且这种能力还能迁移到骑摩托车、骑电动车上面。
也就是说,在“如何处理信息”这个底层问题上,硅基和碳基之间有一条共通的暗河。
这意味着什么呢?一方面,那些有明确规则、可以重复操作的工作,被替代确实是大概率事件。但另一方面,既然AI模仿的是大脑的部分功能,那大脑里那些AI还没触及、或者很难触及的部分,就是我们需要去发展的方向。

02 工业时代让我们成了螺丝钉,AI时代需要把“我”找回来
但AI带来的一个直接冲击就是:当这颗螺丝钉的工作可以被算法高效完成的时候,你是谁?
这个问题既让人不安,也让人有机会重新思考。
有研究者在讲座里把认知分成了四个层次:博闻强识、触类旁通、一叶知秋、无中生有。他的判断是,AI在前两个层次上已经超过了大多数人。论知识储备和记忆能力,任何一个大模型都比单个人脑强太多。
但后两个层次不太一样。
“一叶知秋”是从很小的迹象里判断趋势的能力,“无中生有”是从零开始定义一个新问题的能力。这两样东西需要的不只是知识,更是一种从原点出发推导问题的习惯——也就是演绎推理。
有个说法让我印象很深:一个成熟的研发团队,应该追求50%的失败率。因为如果每次实验都成功,说明你根本没在探索新的东西。衡量进度的标准不应该是成功率,而是每次实验有没有让你对问题本身的理解更进一步。
AI擅长的是从1到N的效率放大。但从0到1的那个起点——为什么要解决这个问题,什么问题是值得解决的——这部分目前还是人的事。

03 泛化:举一反三的能力
这里想多说一句“泛化”这个概念。
AI从大量数据里找到规律,当数据积累到一定程度之后,它能把这种规律用到完全不同的场景里,这就是泛化。人脑也是一样,我们从很多具体的事情里抽取出一个本质的东西,然后把这个本质用到别的领域去。
会用AI的人和不会用的人,差距可能会越来越大。区别在于,前者不是把AI当成一个搜索工具,而是当成认知的一部分——他们知道自己从某个领域里提炼出来的那种“感觉”,可以通过AI的能力快速迁移到一个新的领域里。
有研究者说,一个研究员真正的价值在于,哪怕只有很少的数据点,他也能判断出这条路走不走得通。新手可能要跑一万组实验才能下结论,有经验的人看十个、二十个就够了。反过来,如果一个人没有这种判断力,只是不停地跑实验、调参数,那这份工作确实很容易被替代。
这种人不太会被替代,不是因为他们的技能有多特殊,而是因为他们身上有一些不太容易被量化但很重要的东西:判断力、品味,还有提出正确问题的直觉。

04 门槛在抬高,那怎么办
AI在抬高很多行业的门槛。基础的文案、初级代码、套路化的设计,这些岗位的护城河正在肉眼可见地变浅。
有学者给过一个框架:未来大概只会剩下两种人——一种是能驾驭AI的人,一种是AI确实替代不了的人。几个核心能力会越来越关键:能不能用好AI做好自己的本职工作,能不能发展出和机器不一样的能力,能不能在人机协作中产生新的东西,能不能从零开始创造。
那么具体到个人,怎么应对?
有一个观点让我印象很深:让自己在工作之外还有价值。
这句话不是说要搞副业,而是说把你身上的岗位、公司、头衔这些东西都拿掉之后,你还剩下什么。
是你对什么东西好看、什么东西不对的判断力,是你发现一个别人还没注意到的问题的敏锐度,是你把不同领域的知识拼在一起形成新东西的习惯。这些东西平时看起来没什么用,但它们是一个人真正的底层代码。
浪潮来的时候,那些只靠岗位说明书定义自己的人会被冲走。而那些基于自己独特的感知方式和思考方式活着的人,会发现其实一直站在比较稳的地方。
05 万物背后,会不会有一个统一的东西
写到这里,忍不住多想了一层。
如果硅基和碳基在处理信息的底层逻辑上确实有相通的地方,如果人从具体事情里抽象本质的过程和AI的泛化机制这么像,那是不是说明背后有一个更大的东西——一个能解释所有这些现象的统一框架?
有学者在讲座里提到,Transformer的架构和人类的工作记忆在结构上有对应关系,这可能是一条线索。
在某些方向上,人确实需要学会演绎推理。归纳是从数据里找规律,这是AI擅长的事;但演绎是从一个基本的原点出发,一步步推导出整个逻辑体系。这是人类心智里面比较独特的部分,从欧几里得到爱因斯坦,一直是这样的。
AI能帮我们更快地走到已知的边界,但在边界上往未知的方向看第一眼,可能还是人的事。
而审美能力,大概就是那第一眼的方向感。它没办法被写成公式,也没办法被拆成token,它来自一个人经历过的所有事情、感受到的所有东西。

06 教育也需要想一想
这场变化里,教育是绕不开的话题。
有观点说,刷题找标准答案其实是对人潜力的浪费。既然理性层面的很多东西AI都能做了,那教育的重点是不是应该变一变了?从填东西进脑子、考标准答案,转向保护好奇心、培养创造力和共情力——这些东西恰恰是AI目前还不太行的。
另一个学者提了一个更深的问题:如果理性可以被替代,那人最终的使命是什么?答案可能不在“比AI更强”的竞争里,而在那些只属于人类体验的领域里:爱、创造、意义感,还有对美的追求。
回到最开始的问题:AI时代,人最重要的能力是什么?
是你能发现什么问题,是你觉得什么事情值得花力气去解决。
是你听完这些东西之后,想要写点什么、想清楚点什么的那个冲动。
是那个一直在问问题、一直在找联系、一直在把经验变成自己的东西的那个“我”。
找到它,保持住,就可以了。
📚 本文资料来源
以下讲座内容为本文提供了启发与论据:
AI与脑科学的关系
B站「课代表立正」田渊栋专访:模型的顿悟、模型表征与人类心智模型、优秀研究员的核心价值
清华大学刘嘉教授深度对话:脑科学、逻辑原点、学习与意识、AI时代的教育与人类终极使命
第一性原理与创新
Databricks联合创始人Reynold Xin访谈:第一性原理思考
亚马逊AGI查晟分享:大模型训练实践、人才与科学精神
教育与职业未来
B站「赵何娟Talk」× 李飞飞:教育革命——刷题是对人类的浪费
熊辉教授分享:AI时代的职业图谱
📎 说明
本文为个人学习笔记与思考整理,观点受以上讲座启发,特此致谢。文中不当之处,欢迎交流指正。
夜雨聆风