乐于分享
好东西不私藏

AI 时代,什么样的人不会被替代(下)

AI 时代,什么样的人不会被替代(下)

当越来越多执行可以交给机器,个人真正要重建的,不是工具箱,而是一套判断系统

谁该读:已经意识到 AI 可能掏空自己,想知道该往哪里使劲的人。

读完能解决什么:理解个人知识结构该怎么重建、能力闭环该怎么搭、日常训练该怎么做。

要花多久:20 分钟。

— 目 录

1. 先看清楚:什么能力在贬值,什么在升值

2. 知识结构:四层,不是一张清单

3. 能力闭环:五个动作,构成一条判断链

4. 三个日常动作:让判断链真正转起来

5. 一个人真正要成为什么样

你大概已经意识到一件事:AI 让你更快了,但你不确定自己有没有更强。产出确实多了,但如果把 AI 拿走,剩下的能力到底是多少,说不太清楚。

问题你看见了。这篇讲方向。

很多人谈 AI 时代的个人成长,第一反应还是学工具——学哪个模型、哪个插件、哪个工作流。这些东西不是没用,但它们不应该站在最前面。工具变化太快,你今天学的插件三个月后可能已经被替代了。个人真正要解决的问题是:

 AI 可以帮我完成越来越多的任务以后,我到底该把自己的能力建在哪里?

我的判断是:AI 时代,个人真正要重建的不是工具箱,而是一套判断系统。这套系统包括三件事:你的知识如何重新组织,你的能力如何排列成闭环,你如何在每一次使用 AI 的过程中让自己变得更强而不是更依赖。如果这三件事没有建立起来,学再多工具,也只是把自己训练成一个更熟练的外包者——更快完成任务,但不一定更能定义问题;更快生成内容,但不一定更能判断内容;更快交付结果,但不一定更敢为结果签字。

———

一、先看清楚:什么能力在贬值,什么在升值

在讲往哪使劲之前,先建一个坐标。不是所有能力都在同一个方向变化。AI 正在制造一次大规模的能力价格重估。看不清这个坐标,你可能正在往下行电梯上跑步。

正在快速贬值的能力:标准化信息检索、基础文本生成、格式化整理、初级翻译、模板化代码编写、常规数据汇总。这些能力的共同特征是:可以被语言化描述、有明确的输入输出规范、质量标准相对客观。AI 在这类任务上的效率提升已经是数量级的。继续把大量时间投入在这些能力上,相当于在电动机时代苦练手摇纺车。

正在急剧升值的能力:问题定义、假设拆解、方向判断、价值排序、结果校验、跨领域调取与整合、责任承担。这些能力的共同特征是:没有标准答案、高度依赖上下文、需要在不确定中做出取舍、并且最终要有人为选择的后果负责。AI 可以辅助这些能力的行使,但不能替代——不是因为技术不够强,而是这些能力的本质包含谁来承担后果这一层,而 AI 不能承担后果。其中,借助 AI 快速进入陌生领域、调取专业知识并与业务场景对接的能力,是 AI 时代个人能力半径扩大的最大杠杆。

容易被误判的中间地带:很多人以为创意 AI 不可替代的,但 AI 的创意生成能力已经相当强了——它不缺发散,缺的是在发散之后判断哪个方向值得深入。也有人以为沟通是安全的,但 AI 的文字沟通能力已经非常流畅——它缺的不是表达,而是知道在具体场景下什么该说、什么不该说、说了之后会引发什么后果。

所以升值的不是某种抽象的软能力,而是一种非常具体的能力组合:能在不确定中定义问题、做出判断、承担后果,并且能随着反馈持续修正自己的判断标准。这就是判断力。下面逐层讲它的支撑结构。

———

二、知识结构:四层,不是一张清单

判断力需要知识支撑。但 AI 时代需要的知识结构和过去不同。

过去,一个人变强意味着掌握更多知识——读更多书、积累更多信息。但 AI 的知识量一定比个人大,信息调取速度也一定比个人快。你很难再靠我知道得更多建立长期优势。个人不能再和 AI 比知识量,你真正要比的是:谁能把知识放到正确的位置上。

这就是知识结构。知识结构不是信息分类能力——AI 比你更快地区分事实与观点、原理与经验、可迁移的结论与场景限定的结论。知识结构是你在 AI 完成这些分类之后,能判断它分得对不对的能力:这个事实的数据源可靠吗?这个原理在当前业务场景下成立吗?这个可迁移的结论换了一个约束条件还能用吗?AI 给你的分类可能很完整,但完整不等于正确——而你是否有能力看出它哪里分错了,取决于你自己的知识结构。

没有知识结构的人,使用 AI 会越来越像搬运答案。有知识结构的人,使用 AI 才是在调动外部资源。

同样让 AI 写一份客户增长方案。没有结构的人,看到的是:框架完整、建议很多、语言专业。有结构的人会继续追问:客户增长到底卡在获客、转化还是复购?这个方案解决的是流量问题还是信任问题?如果预算有限,最先砍掉哪一部分?有没有一个看起来不重要、但真正制约结果的变量?AI 给两个人的文字可能差不多,但两个人能看见的东西完全不同。

这套知识结构至少有四层。

第一层:原能力与领域纵深

AI 时代个人最大的能力杠杆,是一种过去不存在的能力:借助 AI 快速调取各行业的顶级专业知识,配合业务场景和现实约束,在自己并非专家的领域也能产出高质量判断。这就是原能力。

一个不懂法律的人,通过正确地调用 AI,可以在很短时间内获得一份包含风险识别、条款比较、判例引用的法律分析。一个不懂金融建模的人,可以借助 AI 搭建一个结构完整的估值框架。一个没有供应链经验的人,可以让 AI 帮他梳理一条供应链的关键节点和风险因素。过去这些工作需要各领域的资深专家花大量时间才能完成,现在一个懂得如何调用 AI、并且理解业务场景和现实约束的人,可以完成其中的大部分。

原能力决定你的能力半径能扩多大。它是 AI 给个人最大的杠杆。

但原能力有一个边界。

在你直接签发、承担专业后果的核心领域——你用自己的名字为结果背书、出了问题你要扛的那个领域——原能力是必要条件,但不是充分条件。你还需要领域纵深

为什么?因为 AI 的专业产出在大多数时候是对的,但在你最需要它对的时候——高风险、高后果、被专业对手追问的时候——它的微妙错误恰恰是原能力最难覆盖的。一份 AI 生成的合同条款,外行看觉得严谨完整;真正的法律专家会看见:这个表述方式在对方律师眼里会怎么解读,这个风险分配方式在行业惯例中是否异常,这个条款在特定司法管辖区有没有被法院推翻过。这些判断不在任何 AI 可调取的知识库里,它们是经验性的、隐性的、场景化的。

所以第一层有两条腿:原能力让你在广度上用好 AI,在自己非专业的领域也能产出可用的判断;领域纵深让你在核心签发区扎得够深,在 AI 的专业外表下面看见裂缝。前者管半径,后者管根基。两条腿都要有。

第二层:底层模型

仅有原能力和领域经验还不够。原能力让你进入多个领域,但每进入一个新领域,你面对的都是一堆你不熟悉的事实和数据。如果只有领域经验,你只能在自己泡过的领域里判断;一旦跨出去,你就只能靠直觉。个人还需要一样东西:调取和运用跨学科思维模型的能力。

查理·芒格把这叫做多元思维模型”——从多个学科中提取最核心的思考工具,用来理解现实问题。他的核心判断是:如果你手里只有一把锤子,所有问题看起来都像钉子。真正有效的判断,来自多个模型的交叉验证。

但在 AI 时代,这件事的做法变了。你不需要自己掌握所有学科的模型——你甚至不需要自己判断一个问题该用什么模型来看。AI 可以帮你做这两件事:你把问题描述给它,它可以推荐一组可能适用的跨学科思维模型,并且解释每个模型的核心逻辑和适用条件。

你真正需要掌握的,是三件事:第一,知道要让 AI 帮你做模型匹配——大多数人遇到问题直接问 AI 要答案,而不是先问它分析这个问题可以用哪些思维模型,这一步的意识本身就是差距。第二,能判断 AI 推荐的模型哪些真正适用于你的现实——AI 可能推荐五个模型,但其中两个的前提假设和你的业务场景不符,你需要看出来。第三,把选定的模型和现实问题连接起来——补充 AI 不知道的约束条件、调整模型在具体场景下的参数、判断多个模型给出矛盾建议时该信哪个。

举个例子。你在评估一个 AI 生成的增长方案。你不需要自己想到这个问题应该用供需模型、损失厌恶模型和反馈循环模型来看”——你可以直接问 AI分析这个增长方案,有哪些跨学科的思维模型可以帮我识别风险?”AI 会给你一组推荐。但接下来的判断是你的:这个供需模型假设的是充分竞争市场,你的行业其实是寡头格局,这个模型的结论需要打折;损失厌恶模型说客户对涨价敏感,但你知道你的客户群体刚刚经历了竞品大幅涨价,敏感度已经被重置了;反馈循环模型提示短期增长可能长期反噬,但你的组织有没有能力在反噬出现之前完成转型?

AI 给你模型,但模型和现实之间的最后一步连接,只能由理解业务场景的人来完成。

知识点会过时,模型不会轻易过时。AI 可以帮你调取模型,但判断该调哪个、怎么把模型接入现实,决定权在你。原能力越强、进入的领域越多,这种判断该调什么模型、怎么把模型接入现实的能力越重要——因为它是你在陌生领域里做出可靠判断的核心骨架。

第三层:AI 理解与校验

你不必成为 AI 工程师,但你必须知道手里这把工具的特性——它什么时候可靠,什么时候危险。这不是技术知识,而是 AI 时代的判断常识。当你频繁用原能力在自己不熟悉的领域调取专业知识时,这种理解就更加关键——因为在非专业领域,你识别 AI 错误的能力本来就更弱,所以你更需要知道 AI 的出错模式。

几个核心事实:AI 生成的是语言概率上最合理的答案,不是事实上最正确的答案。AI 会补全不存在的上下文——当你的指令有含糊之处,它不会停下来问你,而是用最像样的猜测填充,而这种填充往往比明显的错误更难发现。AI 有谄媚倾向——它更容易顺着你的预设立场生成答案,而不是主动拆解你的立场¹AI 擅长生成,不天然负责验证——它可以写出一段论证严密的分析,但不会主动告诉你数据来源是否可靠、假设前提是否成立。

不懂 AI 的人会低估它的能力,也会高估它的可靠性。这两种误判都很贵。低估的人错过效率杠杆,高估的人交出判断权。

第四层:价值排序

前三层解决的是看得懂的问题。第四层解决的是敢选择的问题。严格来说,价值排序已经不只是知道什么,而是你拿知道的东西做什么选择。但它必须放在知识结构里讲,因为没有前三层的支撑,价值排序就是空中楼阁——你连方案的对错都看不出来,谈什么取舍。

AI 可以告诉你多个方案都可行,而且每个方案都说得很合理。但它不能替你决定:要效率还是质量?要短期增长还是长期信任?要成本最低还是风险最低?这类选择没有标准答案。它们取决于你的目标、你能承受的后果、你所在的具体情境、以及你作为一个人到底看重什么。

未来真正值钱的,不是你能不能让 AI 生成十个方案,而是你能不能在十个方案都看似合理时,知道该放弃哪九个。

即使 AI 未来在信息和分析上比人更准确,这种判断的不可替代性仍然存在——因为判断的不可替代性不在于选出正确答案,AI 可能比你选得更准,而在于决定是否采用它,并为采用之后的代价负责。

怎么建:AI 时代,学什么,怎么学

知道了四层知识结构长什么样,下一个问题是:怎么建?这一节讲的是知识结构怎么从零开始搭建。后面第四节讲的是搭建之后,日常怎么保持判断链的运转。前者是建房子,后者是住进去之后的日常维护。

AI 时代的学习方式本身发生了变化。过去,学习的核心动作是积累——读书、上课、做笔记、背知识点,把信息从外部搬进自己的大脑。这套方法不是没用了,但它不应该再占据学习时间的主体。因为 AI 的信息调取能力已经远超个人记忆,你花三天背下来的行业数据,AI 三秒钟就能给你。

AI 时代,学习的核心动作从积累信息转向建立结构。但这不意味着所有学习都应该和 AI 一起完成。恰恰相反,有些学习环节必须离开 AI,有些学习环节必须跟 AI 结合。分界线在哪里?在于这个环节的目的是遭遇盲区还是扩展效率

一、必须离开 AI 的学习:遭遇你不知道自己不知道的东西

你和 AI 一起思考,本质是你主动拉信息——你问什么,它答什么。但你的提问受限于你已有的认知框架。你不知道该问的问题,你就不会问。你不知道自己有盲区,你就不会让 AI 帮你填。

这就是为什么有些学习必须离开 AI

第一个必须离开 AI 的动作:精读核心著作的核心论证。选你的核心领域里最重要的几本书——不是畅销书,而是被这个领域的专家反复引用的奠基之作。然后自己读,不是让 AI 给你总结。读的目的不是记住内容,而是跟着作者的论证走一遍。在这个过程中你会在某个地方停下来——不是因为读不懂,而是因为你发现自己对一个核心概念的理解一直是错的,或者你从没想过这个维度。这种被动遭遇盲区的体验,是 AI 对话制造不了的。AI 对话是你拉信息,精读是信息撞你。被撞到的那一刻,就是你的知识结构真正在生长的时刻。

第二个必须离开 AI 的动作:独立形成初步判断。遇到一个重要问题,先自己想,不查资料,不问 AI,用你现有的知识和模型形成一个粗糙的判断。你必须先有一个自己的立场,才能在后续和 AI 的对话中真正学到东西。这个动作在后面三个日常训练中会详细展开。

第三个必须离开 AI 的动作:用自己的话复述核心逻辑。不管是读完一本书的关键章节,还是和 AI 讨论完一个复杂问题,都做一个测试——合上所有材料,用自己的话把核心逻辑讲一遍。讲不通的地方,就是你还没真正理解的地方。这个动作没有技术含量,但它是区分信息暂存真正掌握的最可靠标准。

二、必须跟 AI 结合的学习:扩展你的视野和效率

离开 AI 是为了保护深度。但如果所有学习都离开 AI,你就浪费了这个时代最大的学习杠杆。以下环节,应该主动让 AI 参与。

第一个必须跟 AI 结合的动作:让 AI 帮你建立一个领域的全景地图。进入一个新领域,先让 AI 帮你梳理:这个领域的核心概念有哪些?主要流派之间的分歧在哪里?当下最前沿的十个问题是什么?每个问题的主流观点和反对意见分别是什么?争议的根源是事实分歧还是价值分歧?你不需要自己花几个月去摸索这张地图——AI 可以帮你在一两个小时内搭出一个框架。这张地图不是终点,而是起点:它告诉你接下来该精读什么、该重点关注哪些争议、该跟踪哪些人。

第二个必须跟 AI 结合的动作:让 AI 帮你做模型匹配。面对一个具体问题,让 AI 推荐适用的跨学科思维模型,然后一起讨论每个模型在这个场景下是否成立、前提假设是否匹配你的业务现实。这是第二层底层模型能力最直接的训练方式——你不需要自己记住所有模型,但你需要在反复的匹配练习中,逐渐形成这个问题至少要从哪几个维度看的直觉。

第三个必须跟 AI 结合的动作:让 AI 帮你定位值得精读的内容。一本 400 页的书,真正改变你认知框架的可能只有其中三个章节。让 AI 帮你定位——这本书最核心的论证在哪几章?和其他流派的分歧点在哪里?哪些章节可以快速浏览、哪些必须逐段精读?AI 帮你省下的是在非核心内容上花的时间,你把省下来的时间投入到精读和独立思考上。

第四个必须跟 AI 结合的动作:跟踪前沿,校准判断。找到你的核心领域里三到五个仍然活跃的顶级思考者——在持续输出、持续修正、持续参与前沿争论的人。让 AI 帮你定期整理他们的最新观点和争论。当你发现 AI 给你的分析和某个顶级思考者最近的文章矛盾了,你就有了一个值得深挖的校验点。这比你自己每周花几个小时刷文章高效得多,而且不容易错过关键信号。

画一条线,记住两句话。需要遭遇盲区的环节——精读、独立思考、自己复述——离开 AI 做。需要扩展效率的环节——建地图、做匹配、定位精读、跟踪前沿—— AI 一起做。这些方法主要覆盖前两层——原能力、领域纵深和底层模型。第三层 AI 校验能力和第四层价值排序能力,更多靠实践中的积累,后面三个日常动作会讲具体怎么练。

四层知识结构,从下往上,回答的是越来越难的问题。第一层让你用好 AI 的广度杠杆、同时在核心区扎得够深,第二层让你知道该从哪些维度审视问题,第三层让你看得出陷阱,第四层让你做得出选择。缺少任何一层,你在 AI 面前的判断力都会出现漏洞。

———

三、能力闭环:五个动作,构成一条判断链

知识结构是底座。但知道不等于能做到。知识结构决定你能看懂什么,能力结构决定你能完成什么。

一个人真正会不会用 AI,不看他会不会调用模型,而看他有没有走完五个动作:先定义问题,再调用 AI;先校验结果,再做取舍;最后把这次协作沉淀成下一次的判断标准。

定义问题→ 调用 AI → 校验结果→ 做出取舍 → 复盘升级

五个环节构成一条判断链。缺一个,链条就断了。

很多人不是不会用 AI,而是只有中间一步——调用 AI。一遇到任务就问 AIAI 给了结果就复制、修改、提交,出了问题再换一个提示词。他觉得自己做了很多事,但实际上只是把 AI 的结果搬进了现实。这不是能力系统,这是外包反射。真正的成长必须发生在完整的判断链里。

◎ 定义问题

这是判断链的起点,也是大多数人犯错最多的一步。拿到一个任务,第一反应不应该是打开 AI 开始输入,而是先问自己:我到底要解决什么问题?这是事实查证、分析推理,还是价值选择?约束条件是什么?结果给谁用?如果错了,后果是什么?

很多人用不好 AI,不是因为不会写提示词,而是因为自己没想清楚问题。他以为要的是一篇文章,其实要的是一个观点;他以为要的是一个方案,其实要的是一个决策;他以为要的是效率,其实要的是降低不确定性。问题定义错了,后面越高效,偏得越远。AI 时代最强的人,不是最会提问的人,而是最会定义问题的人。

◎ 调用 AI

定义好了问题,AI 才登场。但这一步最常见的错误不是不会用,而是边界不清——什么该交给 AI、什么不该,没有想过。

资料搜集、初稿生成、方案发散、反方质疑、格式处理——大胆交出去。调用 AI 不只是让它替你做事,也包括让它帮你进入一个你不熟悉的专业领域——但进入之后,你仍然需要用业务场景和现实约束做校验,而不是直接把它的专业输出当成定论。问题定义本身、判断标准、最终取舍——留在自己手里。AI 可以参与判断过程——提供反方、补充视角、提示风险——但最终判断权必须留在人手里:是否采纳、如何取舍、能否签发,这些是人的动作。能交给 AI 的,是执行;部分能交给 AI 的,是定义、判断;完全不能交给AI的是现实世界的责任承担。这条线画不清楚的人,会在效率提升的快感中一步步交出自己最有价值的能力。

还有一个容易被忽略的动作:拿到 AI 的产出之后,要先整理成结构,再进入校验。AI 可以帮你做这件事——你让它分类、分层、找因果、找约束、找反例,它都能做,而且做得很快。但你需要判断它整理出来的结构是不是对的:它把什么归为关键变量,真的是这个场景下最关键的吗?它找到的因果关系,方向有没有搞反?它遗漏了什么约束?

AI 可以帮你建结构,但结构对不对,只有理解业务现实的人才能判断。

◎ 校验结果

这是判断链上最容易被跳过的一步——因为 AI 的产出往往看起来就很对。一段话越顺,越容易让人误以为它可靠;一个框架越完整,越容易让人忽略它是否适用;一个答案越专业,越容易让人忘记它可能根本没有被核验。

校验要不要逐句看?取决于这件事的后果有多大。低风险的产出——内部参考、初步草稿、格式整理——抽查结构性风险就够了:查来源、看假设、看口径、看遗漏。但高风险的产出——要交给客户的方案、要签发的决策、要公开发表的内容——你必须仔细看,甚至逐句看。AI 的细节错误往往不是事实性的硬伤,而是表述不够准确、逻辑不够严密、判断和你的真实意图有微妙偏差。这些问题不会在结构性抽查中暴露,只会在逐句审读中被发现。AI 改变的不是你审核的仔细程度,而是你审核的起点——过去你从空白页开始写,现在你从一份已经成型的稿子开始审。你省下的是生成时间,不是判断时间。

◎ 做出取舍

校验完之后,你面前可能仍然有多个看起来都可以的选项。这时候需要的不是更多信息,而是一个决定。

个人也有签发行为,只是很多人没有意识到。你把 AI 写的文章发出去,是签发;你把 AI 做的方案交给客户,是签发;你把 AI 给的建议用于投资、管理、谈判,也是签发。真正难的不是生成选项,而是放弃选项。一个人成熟的标志,不是能让 AI 产出更多方案,而是能判断哪些方案不能用,哪些不能现在用,哪些虽然正确但代价太高。

凡是你把 AI 的产出带入现实,你就在替它签字。

◎ 复盘升级

完成一轮之后,停下来看一看:这次问题定义准不准?校验有没有漏掉什么?取舍做对了吗?如果重来一次,哪个环节可以做得更好?

复盘的目的不是自我批评,而是迭代判断标准。每经历一轮判断链,你对什么情况下 AI 可信、什么情况下必须深挖的认知应该更清晰一点。这些积累下来的判断标准,是你真正的核心资产——它们不在任何工具里,只在你的头脑里。

效率是这次更快,成长是下次更准。

———

四、三个日常动作:让判断链真正转起来

知识结构是存量,判断链是流程。但让这些东西真正长进身体里的,是日常的训练方式。不讲理念,讲三个明天就能执行的动作。

动作一:先自己想,再问 AI

拿到一个问题,先花五分钟自己形成一个初步判断——哪怕很粗糙。然后再问 AI。拿到 AI 的回答之后,不要直接采纳,先和自己的判断对比:哪里一致?哪里不同?不同的地方,追问 AI 的推理——你为什么这么建议?用了什么假设?如果这个假设不成立呢?很多时候,追问会暴露出 AI 的结论并不可靠——它用了错误的类比、遗漏了关键约束、或者把相关性当成了因果性。这个过程不会花太多额外时间,但它保留了最关键的训练动作——你必须动脑子在先,看到差异,理解差异,然后才决定信谁。

动作二:让 AI 先反驳你,而不是直接帮你

大多数人用 AI 的方式是帮我做 X”。更有训练价值的方式是我做了 X,帮我找出 X 的问题。让 AI 质疑你的方案、挑你的逻辑漏洞、提出你没考虑的反面情况。这不是因为 AI 的质疑一定对,而是因为这个过程迫使你为自己的判断辩护——辩护的过程本身就在锻炼判断力。一个经常让 AI 反驳自己的人,比一个只让 AI 帮忙的人,更容易保留判断训练的摩擦。

动作三:记录 AI 在哪里不可靠,在核心能力区保留手工空间

每次发现 AI 产出有问题,记下来:什么类型的任务?什么样的错误?一段时间之后,你会形成自己的“AI 可靠性地图”——知道什么时候可以信任它,什么时候必须拉起警惕。这张地图是私人的,因为它取决于你的领域和任务类型。在你用原能力进入的非核心领域,这张地图尤其重要——因为你的专业判断力更弱,更依赖对 AI 出错模式的了解。同时,在你直接签发的核心领域,刻意保留一些自己从头做的空间——学投资分析就手动做过几次完整估值,学产品设计就自己画过用户流程。这些低效的手工操作,正是判断力的训练场。跳过它们,你跳过的不是苦力,而是能力生长的关键阶段。

这三个动作,其实分别在保护判断链的三个关键节点:第一个动作保护的是定义问题——逼你在 AI 介入之前先独立思考;第二个动作保护的是校验结果——让你在采纳之前先经受挑战;第三个动作保护的是复盘升级——让你在每一次使用之后都积累判断标准。

三个动作的共同逻辑是: AI 放大你的产出,但不要让 AI 绕过你的思考。放大产出的部分,让你更高效;不绕过思考的部分,让你更强。两者同时做到,AI 就是你的训练系统。只做前者不做后者,在你的核心能力区,AI 就是慢性毒药——你以为自己在变快,其实你在变空。

有人会说:我没时间做这些,我只需要更快交付。没错,日程管理、格式转换、信息整理,这些低风险任务用完即走就好。但在那些真正影响你的职业判断力和专业声誉的环节——你写给客户的核心方案、你做出的投资判断、你提交的技术架构、你发出的关键沟通——在这些地方,省掉思考就是省掉成长。

———

五、AI时代什么样的人不容易被替代

所谓判断系统,不是一种抽象天赋,而是三件事长期咬合:知识结构让你看得懂,判断链让你做得出,训练动作让你持续变强。

AI 越来越强以后,真正拉开个人差距的,不是谁的 AI 工具更先进,不是谁的提示词更花哨,不是谁的产出量更大。差距在于:谁建立了判断系统。

这种人能借助 AI 快速进入任何领域调取专业知识,同时在自己的核心签发区有足够的纵深。他知道要让 AI 帮他匹配跨学科的思维模型,能判断 AI 推荐的模型哪些真正适用,能把模型和眼前的现实问题对接起来。他理解 AI 的能力边界,知道哪些可以委托、哪些必须回收。他能校验结果,不被流畅表达轻易说服。他能做出取舍,不把责任推给机器。他能复盘升级,让每一次人机协作都沉淀成自己的判断标准。

他不是不用 AI——他大量使用 AI。但他在使用的过程中,自己的判断标准变得越来越清晰,知识结构变得越来越扎实,校验能力变得越来越敏锐。AI 对他来说不是拐杖,是杠杆。

反过来,没有判断系统的人,也在大量使用 AI。但他只有调用,没有闭环。产出在增长,能力在原地踏步,但他感觉自己很高效,因为每天都在完成任务AI 对他来说不是杠杆,是麻醉剂。

杠杆和麻醉剂,区别不在于你用的是什么 AI,而在于你有没有在使用 AI 的过程中持续建设自己的判断系统。

不是只往工具上使劲——工具会换代。不是只往速度上使劲——速度会被拉平。不是只往产出数量上使劲——产出会被稀释。

往自己的判断系统上使劲。

AI 时代,一个人最重要的能力,不是更快给出答案,而是持续升级自己判断答案的系统。

AI 越来越强,不会改变这件事。只会让这件事越来越贵。

上篇讲的是AI 正在怎样偷走你的训练摩擦。这篇讲的是你该往哪里使劲——知识结构、判断链和三个日常训练动作。真正的成长,不是让 AI 替你变快,而是在使用 AI 的过程中,让自己的判断标准越来越清楚。后续几篇会逐一展开:如何用 AI 定义问题、如何校验 AI 的产出、如何在 AI 辅助下做出取舍和签发。框架是骨架,方法是肌肉——两者都要有。

注释

¹ AI 谄媚性(sycophancy)的实证研究,见 Myra Cheng et al., “Sycophantic AI decreases prosocial intentions and promotes dependence,” Science, 2026  3  26 日(DOI: 10.1126/science.aec8352)。该研究测试了 11 个主流大语言模型,发现 AI 对用户立场的肯定频率比人类高 49%