价值之探 | 当AI把“技”和“能”拆开

– 导语 –
小米MiMo大模型负责人罗福莉在最近的访谈中提到[1],她现在更倾向于招大二、大三的本科生。原因很直接:这些学生还没有被传统培养路径“固化”过,思维方式更匹配AI时代的新范式。与此同时,业界也流传着一种截然相反的焦虑:AI正在消灭初级白领岗位,而这些岗位恰恰是年轻人培养专业素养的隐性训练场。一边是企业主动绕过资深经验去找“白纸”,一边是行业担忧没有初级岗位的历练就不可能长出真正的专业能力。两种声音构成了一个值得追问的张力:AI到底在淘汰什么?又在选择什么?
答案可能不是“淘汰初级、选择资深”,也不是“淘汰资深、选择新人”。AI真正做的事情,是把“技”(skills,可操作、可标准化的技能)和“能”(capabilities,好奇心、判断力、想象力等底层能力)的捆绑关系强行拆开,不管岗位是初级还是高级。科技大厂偏爱的那些年轻人,与其说是因为“年轻”而被选中,不如说是因为他们身上尚未被“技”的训练所覆盖的“能”更加清晰可辨
。
什么是“技”,什么是“能”?不妨从几个具体领域来辨析。
学习编程,写代码是“技”。语法、框架、调试、版本控制,都是可教、可练、可标准化考核的操作技能。但在学习编程的过程中训练出来的结构化思维、逻辑推演能力、对复杂系统的架构直觉、把一个模糊需求拆解为可执行步骤的能力,这些是“能”。AI可以替你写代码,写得又快又好,但替不了你理解一个系统应该怎么拆解、模块之间的耦合关系该如何设计、在多个技术方案之间做取舍时依据什么原则。
学习外语,做翻译是“技”。但在习得一门外语的过程中获得的东西远不止语言转换的操作能力。异域文化的肌理、不同历史传统对民族性格和表达方式的塑造、在两种思维体系之间灵活切换的感觉,这些是“能”。AI翻译已经可以做到相当的“信”与“达”,但理解一段日语商务邮件背后没有说出口的意思,感知一个英语学术论文中修辞策略暗含的学派立场,需要的不是翻译技术,而是文化判断力。
学习数据分析,跑Python、理口径、做图表、写一篇解释性的报告,这些是“技”。但从数据中抽象出规律、形成假设、基于假设做出商业判断,这些是“能”。AI可以在几分钟内跑完一个分析师需要一周才能完成的数据处理工作,但“这组数据到底在说什么”“哪个异常值背后藏着真正的商业故事”“这个相关性是因果还是巧合”,这些问题的回答依赖的不是数据分析技巧,而是对业务的深层理解和提出好问题的能力。
在每一个领域,AI做的都是同一件事:大规模替代“技”,同时放大“能”的价值。一个拥有真正“能”的人,AI是前所未有的杠杆,它让判断力可以作用于远超个人精力极限的工作范围。现实中,大多数人身上“技”和“能”是混合存在的,关键在于比例和自觉程度。而那些长期依赖“技”立身、对自身能力结构缺乏反思的人,不管工作了多少年,都会发现脚下的地基在松动。
需要特别指出的是,“技”与“能”的分野也不是文理科的差别。一个文科生如果只擅长写作和修辞技巧,那是“技”;一个理科生如果只会熟练操作实验流程和统计软件,同样是“技”。反过来,文科训练中对文本的深层解读能力、对叙事结构的直觉、对人类动机的洞察,是“能”;理科训练中的建模思维、从混沌数据中抽象规律的能力、对因果关系的严格辨析,也是“能”。AI不认学科背景,只认“技”与“能”的边界。那些以为“学了理工科就安全”或者“文科生更容易被替代”的判断,本身就还停留在旧的坐标系里。
– 02 –
AI这一刀,不是按职级砍的
有了“技”和“能”的区分,再来看职场中正在发生的事情,画面就清晰了。
先看年轻一端。从今年多家科技公司的校招反馈来看,校招季呈现了一种耐人寻味的分化。各大科技公司争抢的不再只是传统意义上的“好学生”(GPA高、实习漂亮、技术栈完整),而是一批在使用AI的过程中展现出超出同龄人的任务理解力和问题拆解能力的候选人:给他们一个模糊的需求,他们知道怎么把它变成AI可以执行的结构化指令,并且能判断AI输出中哪些可信、哪些需要人工修正。这批人是校招中的少数,但大厂为他们争得气喘吁吁。与此同时,大量按照传统路径精心培养出来的优秀毕业生,编程能力扎实、专业基础过硬,反而发现自己最引以为豪的那些本领,正是AI最擅长替代的部分。
再看资深一端,情况同样没有按照“初级受冲击、资深稳如磐石”的预期展开。一部分人如鱼得水:AI放大了他们多年积累的专业直觉和判断力,让一个人可以撬动过去需要一个团队才能完成的工作量,产出效率和质量都跃升了一个层级。但另一部分人,其中不乏资历深厚、职级不低的,在AI面前暴露出一个尴尬的事实:他们多年积累的,很大一部分其实是流程性的操作、格式化的写作、套路化的分析框架、对特定工具和系统的熟练使用。这些曾经构成专业壁垒的东西,在AI面前迅速贬值。他们以为自己站在阶梯的高处,其实脚下踩的台阶也在塌。
两端的观察印证了同一件事:AI不是沿着“初级/资深”的分界线切的,而是沿着“技/能”的分界线。
在过去的职业环境中,“技”和“能”是被捆绑销售的。想培养判断力?唯一的渠道是先花几年做基础工作,然后寄望于判断力作为副产品在过程中自然生长。这不是因为这条路径最优,而是因为没有别的路径可选。但每一个经历过传统职业训练的人都知道,那些年复一年做着同样基础工作的同事中,有些人确实在重复中磨出了锐利的洞察力,但也有不少人做了十年依然只是在机械重复,手很熟,心没开。这往往不是个人的选择,而是岗位设计和考核机制没有为“能”的生长留出空间。同样的“技”的训练强度,有人长出了“能”,有人没有。这至少说明,“技”的练习是“能”生长的一种土壤,但远不是充分条件。AI打破的正是这个捆绑。它并不必然损害“能”的培养,它只是让“技”不再是通向“能”的唯一入口。
这不是一个理论预测,产业实践已经在按“能”重新排序。
硅谷正在经历一场被称为“全员Token-Maxxing”的军备竞赛。Meta数万名工程师全员使用AI编程工具,token消耗量惊人,公司内部甚至出现了“token legend”的非官方头衔来形容那些AI使用量最大的员工。在工程师群体内部,分化已经非常剧烈:顶尖的工程师,那些能判断“什么值得做”的人,极度稀缺,各家争抢;而大量只会执行已定义任务的工程师正在失去不可替代性。五源资本合伙人孟醒今年参加YC W26 Demo Day后写道[7],现场路演的项目中大约八成都是垂直agent:帮律师整理文件、帮客服分发工单、帮HR筛选简历,每一个都是在替代某种“技”,同时对使用者的“能”提出更高要求。他的总结很精准:“当AI什么都能做的时候,人的价值正在从’会做什么’变成判断’什么值得做、什么不该做’。”
国内的情况也在印证同样的逻辑。头部科技企业中出现了一批被称为“超级个体”的员工,他们借助AI工具,个人产出效率大幅跃升,内部甚至有了“一人成军”的说法。在对这些超级个体的访谈中,一个反复出现的共性不是对某项具体AI工具的熟练操作(那仍然是“技”),而是对任务本质的理解力、对产出质量的判断力,以及在AI辅助下快速迭代和纠错的能力(这些是“能”)。同一个工具,放在不同人手里,效果天差地别。工具是平等的,差距在工具之外。
但一尴尬的现实是:虽然排序已经在发生,“能”在实践中却从未被清晰定义过。招聘的时候,它往往被简化为“有AI味”,面试官凭直觉能感受到差异,但很难把它写进JD里。对既有员工的转型,有一个案例很能说明问题。据了解,一家拥有数万名技术人员的IT服务企业,亲历了AI对基础岗位的逐层影响。公司将受冲击的员工转向新岗位,但同样的培训资源、同样的时间窗口,有人很快适应了新角色,有人始终迈不过去。管理层反复琢磨这个差异,给出的解释很朴素:“关键看他们自己有没有意愿”。“能”的重要性已经被感知到了,但它的画像、它的构成要素、它的培养路径,至今仍然是模糊的。这种模糊本身就是一个问题:如果连走在最前面的科技企业都说不清楚他们在选什么人、为什么这些人“行”,那么更广泛的社会和教育体系就更无从区分和准备。
到这里,一个关键问题浮出水面:如果判断力、好奇心、想象力这些底层能力主要是天赋决定的,那么讨论教育转型就没有太大意义,因为教育只能培养“技”,“能”只能靠天收。这个问题值得认真面对。
好消息是,认知科学的证据比通常以为的更支持“能可以培养”的判断。
最直接的证据来自人格心理学。Roberts等人对207项研究的元分析显示[2],有意的干预可以导致人格特质的显著变化(效应量d=0.37,在心理学中属于中等偏上)。其中,与好奇心和创造力密切相关的“开放性”(Openness to Experience),恰恰是大五人格中最不稳定的维度,也就是最容易被环境和干预影响的。纵向追踪研究也发现,开放性在大五人格中的重测稳定性最低(11年重测相关仅约0.4),远低于其他四个维度。这意味着:好奇心、想象力、对新经验的接纳程度,不是刻在基因里一辈子不变的东西,它们会随环境持续波动。
创造力本身也不是不可触及的“天才特权”。Scott等人对创造力训练项目的元分析发现[3],基于认知过程的训练(如概念组合、类比推理、在不同知识领域之间建立联系)对发散思维和创造性表现有显著正效应,而且效果优于传统的“头脑风暴”式练习。2024年一项覆盖五十年、169项研究的最新元分析再次确认了这一结论[4]。换句话说,想象力和创造力虽然有天赋成分,但它们也是可以被特定的教学方式激发和强化的。
更宏观的尺度上,弗林效应提供了一个背景性的佐证[5]:从二十世纪初至今,全球IQ测试分数每十年上升约3分,时间跨度太短不可能是基因变化,只能归因于环境的改善,说明认知能力受环境的塑造比人们习惯假设的更深。当然,需要诚实地承认边界。行为遗传学研究显示智力的遗传率约为50-80%。“能”不是无限可塑的,“可培养”不等于“人人都能培养到同样水平”。但这恰恰强化了教育改革的紧迫性:如果“能”的发展空间本身是有限的,那么把大量教育资源消耗在培养正在被AI替代的“技”上,就更是一种浪费。那些本可以用来发展“能”的时间和精力,正在被低效地使用。
蔡昉在《投资于人》中提出了一个与“技/能”框架高度吻合的判断[6]:传统教育培养的可编码化知识和技能,恰恰是AI最容易替代的;真正让人区别于AI的护城河在于好奇心、审美力、想象力这些非编码化的认知能力。他用了一个有力的表述:如果说知识是人力资本的“存量”,那么认知能力是决定一个人能否持续适应变化的“动态弹性”。他进一步主张将义务教育延长至高中阶段,加大教育的公共投入,反对过早将学生分流到狭隘的职业训练轨道,因为AI时代技能更新极快,窄化的职业训练很快就会过时。在扩大教育公平、增强受教育者适应性的意义上,这些建议很有价值。但一个问题无法回避:如果延长的教育年限仍然在同一套“重技轻能”的框架内运行,这就对教育模式本身的变革提出了更高的要求。蔡昉自己也强调,教育应从知识传授转向认知能力培养。但“转向”的具体路径是什么?真正需要调整的不只是年限的长短和投入的规模,而是教育的模式,围绕“能”去重新设定教学方式、考核标准,以及与职业体系的衔接逻辑。
回溯一个常被忽略的历史事实:现代大规模学校教育体系的建立,本身就是为工业革命服务的。十八世纪末到十九世纪,普及教育的核心目的是为工厂和现代企业培养具备基本读写算能力和纪律性的劳动力。标准化的课程、统一的考试、按年龄分班、以知识记忆和操作技能为主的评价标准,这套体系的底层逻辑是:大规模、低成本地生产具备标准化“技”的劳动者。两百多年过去了,当AI可以比人类更快、更好、更便宜地执行绝大多数标准化的“技”时,这套逻辑的适用条件正在消失。
有意思的是,以培养“能”为核心的教育并不是什么新发明。孔子的教学不是让学生背诵标准答案,而是通过对话、追问和情境讨论来激发独立思考。“不愤不启,不悱不发”,本质上是在等待和催化学生自己的认知突破,而不是替他们完成认知。苏格拉底的方法更为极端:他从不直接给出答案,只用一连串精心设计的追问来暴露学生思维中的盲点和漏洞,迫使他们自己走向更严密的推理。两种相隔万里的教育传统,指向同一个共识:真正的“能”不是靠灌输知识来培养的,而是靠启发式的互动来唤醒的。
现代教育放弃这条路径,原因很务实:启发式教育天然要求极小的师生比和高度个性化的互动,这在大规模普及教育的资源约束下几乎不可能实现。孔子有弟子三千,但“身通六艺者七十有二”,深度培养的也只有七十二人。苏格拉底式的教学,一个老师一次只能面对几个学生。当教育的目标是覆盖几亿人口时,这种模式在经济上不可行。标准化教育取代了启发式教育,不是因为后者不好,而是因为前者便宜。
AI正在改变这个成本约束。当每一个学生都可以拥有一个不知疲倦、知识面相当广博的AI学习伙伴时,个性化的启发式互动在技术上开始变得可行。这不是说AI可以替代好的老师(好老师做的远不只是传授知识和提问),而是说,那些因为资源限制而从未获得过高质量一对一引导的学生,现在多了一种可能。如果AI能在日常学习中承担“苏格拉底式追问者”的角色,不是给答案,而是通过提问帮助学生发现自己思维中的盲点,那么“能”的培养至少不再完全受制于师生比这个硬约束。
蔡昉曾引用发展经济学中“生命早期1000天”的概念[6],指出人力资本在早期投入的回报率最高。这个洞见在“能”的培养语境下获得了新的含义:如果好奇心、想象力这些底层能力的发展窗口确实集中在生命早期,那么让启发式教育尽早介入,而不是等到研究生阶段才开始训练批判性思维,就不只是一个教育理念的选择,而是一个时间窗口的问题。
如果AI可以成为启发式教育的载体,那么一个自然的问题是:启发什么?用什么素材?这里不妨做一个思想实验。大语言模型自身在训练过程中积累的“经验”,虽然不能直接等同于人类认知的规律,但提供了一些有趣的观察:研究者发现,让模型学习结构良好的中学教材,对基础能力的提升效果显著优于学习同等体量的随机文本;让模型学习代码,不仅提升了编程能力,对理解复杂意图、完成长程推理任务的帮助同样出人意料地大。这些现象当然不能简单平移到人类教育上,但它们构成了一个值得玩味的类比:知识的结构和组织方式(而非总量)是否对能力养成有关键影响?编程训练的真正价值是否不在于“学会写代码”本身,而在于它所培养的结构化思维和长链条推理能力?这些问题没有定论,但值得教育研究者认真对待。
AI对职业的冲击,不应该只被定义为就业岗位数量的增减。岗位数量的变化是表层症状,深层的问题是:整个社会评价人、筛选人、培养人的坐标系正在被改写。这不只是一个劳动经济学问题,而是一个需要被充分讨论的社会议题。
目前最大的困境,恰恰在于走得最快的人也说不清楚自己在选什么。在变革最前沿的科技企业,在招聘和内训中发现了“能”的存在,但只能用“年轻”去区隔它、用“AI味”去形容它,用“意愿”去命名它。头部企业的超级个体用AI撬动了惊人的产出,但对于“什么样的人能用好AI”,尚未有体系的观察,或成型的总结。“能”已经在决定命运了,但它的画像至今没有人画出来。
这不是哪一家企业能单独解决的事情。先行者需要做的,不只是用“能”去筛选人才,而是把筛选过程中积累的隐性判断标准外显化:到底是什么让一个人在AI辅助下如鱼得水,又是什么让另一个人进退失据?这些经验如果只停留在少数管理者的直觉里,不被提炼为可讨论、可借鉴的能力模型,“按能排序”就会变成一场只有内部人才看得懂规则的游戏。而当规则不透明的时候,承受代价最大的永远是信息最弱势的群体。让更多人有条件去试、去用、去在使用中发现自己的“能”,这本身就是基础设施层面的公共议题。
最终这个问题会回到教育面前。工业革命催生了现代学校制度,从师徒制和精英私塾转向大规模标准化教育。AI时代可能需要另一次同等量级的转变。教育行业不能等着被社会倒逼才开始变化,它需要的不是在原有框架上加课时、加科目,而是重新审视自己最基本的假设:培养什么,怎么培养,怎么评价。
阶梯没有断裂。排序的规则在改写。而能不能让更多人读懂新规则,取决于从企业到教育的每一个环节,是否愿意把“能”从一个模糊的直觉变成一门严肃的学问。
孔子说“不愤不启”,眼下这场由AI引发的集体困惑,或许正是那个“愤”的时刻。只是这一次,不会有谁站在讲台上替我们讲述标准答案。每一家企业、每一所学校,每个求职或求知的人,都需要自己走完从“愤”到“启”的道路。
夜雨聆风