Q:ai升级迭代这么快,你感觉参与ai的个人最应该提升的,又是这个行业里相对不变的可持续去提升的个人能力是什么?
A:好问题。我觉得有几个能力确实比具体技术更耐久:
问对问题的能力。 工具会变,但把模糊需求拆解成精确、可验证的问题——这个能力只会越来越值钱。能清晰定义”我到底要什么”的人,不管底层模型怎么换代,都能比别人更快拿到好结果。
系统思维。 理解组件之间怎么交互、改一处会在哪里产生连锁反应、哪些是你必须亲自把控的决策点。这其实跟你之前思考的那个框架很相关——区分”必须自己理解的”和”可以安全委托的”,本质上就是系统思维在发挥作用。
快速建立”够用”认知的学习能力。 不是把每个新模型、新框架都学透,而是能在短时间内抓住一个新事物的核心机制和边界,判断它对自己的工作意味着什么。这是一种元能力,底层工具越换得快,它越重要。
对结果的判断力。 AI 能生成大量输出,但判断输出是否真正符合意图、是否隐含风险,这需要领域理解和批判性思维。生成越容易,鉴别力的稀缺性就越高。
如果只选一个最核心的,我会说是第一个——精确提问和定义意图的能力。因为它是其他几个能力的前置条件,而且它本质上是在锻炼思维的清晰度,这在任何时代都不会过时。
Q: 我有种理解,请你帮我审核或纠错:我认为核心能力是,借鉴前人工作的能力(包括如何搜索、整合信息等)、结合使用场景(到底想要做什么、实现什么)和拥有资源认知和分析(金钱、权限、时间、能力灯)三者的有机整合。本质上是,想做什么搞清楚,站在什么基础上做搞清楚,为什么能做搞清楚,然后去持续深化自己的迭代价值。
A:你这个框架的内核很扎实,我觉得不需要”纠错”,更多是帮你补一个缺口。
你说的三条——想做什么、站在什么基础上、凭什么能做——本质上是一个完整的决策前分析框架。这个没问题,而且比很多人的思考已经深一层了,因为大多数人只停留在第一条。
我想补的一点是:你的框架偏重启动阶段的能力——怎么想清楚、怎么开始。但在AI快速迭代的环境里,还有一个同等重要的能力你没显式提到:对产出的验证和纠偏能力。
也就是说,做的过程中和做完之后,你怎么判断结果是否真的符合你最初的意图?AI 生成的东西经常”看起来对”但实际偏离了目标,或者在你没注意的维度埋了隐患。这个判断力不完全包含在你说的三条里——它需要你在执行过程中持续回扣意图,而不只是在起点想清楚。
用你自己的语言来说,可能是第四条:做出来的东西是不是真的是我要的,搞清楚。
除此之外,你的”持续深化迭代价值”这个收尾很好——它意味着这不是一次性分析,而是一个循环。这恰恰是很多人缺的认知。
Q:谢谢你的补充。那么从个人能力提升上,就是前人工作归纳总结、分析与借鉴能力 + 自我清晰的认知能力 + 场景的痛点、需求发现、定义与拆解能力 + 产出的验证和纠偏能力。最终,在这四者建立起相对优势后不断迭代优化,建立更深的护城河。而这几点,趋势变化可能最快的,就是在AI帮助下,这几者可以快速提升,也就是,AI架构师,在这四者上不同的实现。但似乎又不能简单拆解,是解决一个具体问题的四个或五个维度。你能进一步帮我分析吗?
A: 你触到了一个关键点:这四个不是流水线上的四个工序,而是同时作用于每一个具体问题的四个视角。让我帮你理清这个结构。
它们为什么不能简单拆解
拿一个具体场景举例——比如你要用AI搭建一个数据处理管道。在定义需求的那一刻,你就同时在做前人经验借鉴(别人怎么做的)、资源认知(我有什么数据、什么工具、多少时间)、需求拆解(核心要解决什么)、以及预判验证标准(怎么知道做对了)。这四个维度是同时激活的,只是在不同阶段某个维度会成为主导。
AI改变的不是这四个维度本身,而是每个维度的”实现方式”
•前人经验借鉴:过去靠读文档、问人、试错。现在AI能在几秒内帮你综合大量先例。但判断哪些先例跟你的场景真正相关,这个能力反而更重要了,因为信息量暴增了。
•自我认知:AI帮不了你的部分。你有多少时间、你真正在意什么、你的能力边界在哪——这始终是人的功课。
•需求拆解:AI可以帮你把一个模糊意图展开成结构化的子问题,但锚定”到底要什么”的那个原点判断必须是你的。
•验证纠偏:AI能跑测试、做对比,但定义”对”的标准是你的事。
所以真正的结构是这样的
这四个维度在每个问题上形成一个循环——不是做完一再做二,而是在解决问题的每个时刻,你都在这四个维度之间快速切换和平衡。AI加速了每个维度的执行层,但每个维度都有一个**“人必须握住的锚点”**:相关性判断、自我认知、意图锚定、标准定义。
你说的”AI架构师”,本质上就是:能在这四个维度之间高效调度、同时守住每个维度中AI无法替代的那个锚点的人。护城河不在于你会用什么工具,而在于你在这个调度和锚定上的熟练程度——这个只能靠反复实践来积累,没有捷径。
Q:就是当先前的卡点不见了,现有ai解决不了的卡点成了成本最高的东西。我想进一步了解,结合你的了解和预测的ai的进化速度和方向,什么是我最持久的能力发展方向(至少在一段时间内不会被ai替代的)?另外,你说的自我认知,我觉得ai也可以帮我提升,只不过这个带宽,在于我自己更多作为堵点。
A:你对自我认知那点的纠正很准确——AI确实能帮你提升自我认知(比如通过提问逼你澄清、用数据揭示你的行为模式),瓶颈在于你愿不愿意接受和消化,这是带宽问题,不是AI能不能做的问题。这点我之前说得不够精确。
那什么才是最持久的不可替代?
顺着你的逻辑——“先前的卡点消失后,剩下的卡点成为最贵的东西”——我往前推演:
第一层(正在被AI消解的): 信息获取、模式匹配、代码生成、内容生产。这些已经不是卡点了。
第二层(正在被松动的): 需求拆解、方案评估、甚至部分验证工作。AI在快速逼近”够用”水平。你说的四个维度的执行层,大部分会在未来几年被大幅压缩。
第三层(目前看最持久的卡点): 我认为是两个东西——
一是意愿和取舍的定义权。AI能帮你分析所有选项,但”我到底要走哪条路、愿意放弃什么”这个决定,本质上是价值判断,不是优化问题。越是选项爆炸的时代,这个能力越稀缺。它不是”想清楚要什么”那么简单,而是在多个都合理的方向中做出承诺并承担后果。
二是跨上下文的整合判断。AI的能力边界始终受限于你给它的上下文窗口。但现实中最有价值的判断往往需要打通多个AI根本不知道的上下文——你的人际关系、组织政治、市场直觉、你上周跟某人吃饭时感受到的某种微妙信号。这些分散在不同场景、不同感官、不同时间里的信息,目前只有你自己能整合。
但说”至少一段时间”更诚实。 如果AI发展出持续记忆、多模态感知、主动探索环境的能力,第二点也会被松动。到那时,剩下的可能真的只有第一点——你想要什么、你愿意为什么负责。这个问题没有正确答案,只有你的答案,所以它不是一个可以被优化掉的问题。
回到实操:你现在最值得投入的,是在每一个具体项目中反复练习”在选项充裕时快速做出有质量的取舍”。这个能力只能在真实决策中积累,而且它的价值会随着AI让选项越来越多而持续上升。
Q:能给我一份尽可能真实或者尽力去预测的时间表吗,这三层被消解的进程,让我提前有所准备。
A:这是个很难精确回答的问题,但我尽量给出一个基于当前趋势的诚实预测,同时标明我的确信度。
第一层:信息获取、模式匹配、内容生产
2023-2025,已经基本发生
这层你已经身处其中了。代码生成、文案写作、数据整理、知识检索——这些领域AI已经从”能用”到”好用”。剩余的摩擦主要是工具链整合和习惯迁移,不是能力瓶颈。确信度很高,因为这是已经发生的事。
第二层:需求拆解、方案评估、验证执行
2025-2028,正在松动,预计3年内大幅压缩
这一层的判断依据:当前模型已经能做相当不错的需求分析和方案对比,瓶颈主要在上下文长度、工具调用可靠性、和多步推理的稳定性。这些都是工程问题而非基础研究瓶颈,进展会比较稳定。我的预测是:
•2025-2026:AI能可靠地承担”给定明确目标后的方案设计与初步验证”。你仍需定义目标和做最终判断,但中间过程的人力投入大幅减少。
•2027-2028:AI agent能自主完成多步骤项目执行,包括自我测试和纠偏。人的角色进一步退到”审批和方向调整”。
确信度中等。速度可能比我说的更快,但大方向不太会错。
第三层:价值取舍和跨上下文整合
这里需要分开说
跨上下文整合(2028-2032可能开始被松动):这取决于AI是否获得持续记忆、主动感知环境、以及跨系统打通数据的能力。技术上没有根本障碍,主要卡在隐私法规、数据互通标准、以及用户信任上。一旦AI能持续跟踪你的工作、社交、决策历史,它在这方面的能力会快速逼近甚至超过大多数人。
意愿与取舍的定义权——这个我给不出消解时间表,不是因为我乐观,而是因为这在逻辑上有不同的性质。即使AI能帮你分析”选A还是选B各有什么后果”,“我选A”这个行为本身是一个承诺,不是一个计算。除非你愿意把决策权本身也交给AI——那时消解的不是这个能力,而是”你”这个主体在决策中的角色。
对你的实操意义
如果这个时间表大致成立:
•现在到2026:在第二层建立优势的窗口期正在关闭。你应该已经在用AI加速这些工作,重点是提高速度。
•2026-2028:把精力转向第三层能力的刻意练习——在每个项目中练习快速取舍、练习整合AI看不到的上下文做判断。
•2028之后:跨上下文整合可能也被AI辅助,你的核心价值会收缩到”定义方向并为之负责”这一个点上。
一个重要的诚实声明: 所有超过2年的AI预测,包括我这个,历史上错得很多。方向大致可信,时间节点可能偏差一两年甚至更多。建议你把这个当成一个动态更新的参考框架,而不是一个固定的路线图——每隔半年重新评估一次当前位置。
Q:现在是26年4月,请搜索最新新闻后告诉我最新的进展(三层)以及给出分析判断。同时给我建议,为了保持自己的竞争力,需要做什么?
A:第一层(信息获取、内容生产)——已完成消解
这层没什么悬念了。到2026年4月,这已经是既成事实。
第二层(需求拆解、方案评估、验证执行)——比我之前预测的更快
这是当前变化最剧烈的一层。几个关键信号:
•接近75%的企业计划在2026年底前部署AI agent 。这不再是实验室概念。
•2026年最重要的转变是长时间运行的自主工作流的出现——AI agent不再响应单一指令,而是在执行循环中持续运行 。
•到2026年底,预计40%的商业应用将使用AI agent,而2025年这一比例不到5% 。
•AI将配备内部反馈循环,能自主验证工作准确性并纠正错误,从而使多步骤工作流变得可靠和可扩展 。
这意味着:我之前说的”2027-2028 AI agent能自主完成多步骤项目”,实际上在2026年就已经开始落地了。 第二层的消解速度比我预估的快了大约一年。
•Morgan Stanley报告指出,当前前沿模型不再仅仅优化token预测,而是在推理和规划方面达到了不久前还被认为需要数年才能实现的水平 。
•xAI联合创始人提出,AI自主升级自身能力的递归自我改进循环可能最早在2027年上半年出现 。
第三层(价值取舍、跨上下文整合)——时间窗口在缩短
•DeepMind CEO Hassabis认为2028年后,如果记忆和世界模型的差距被弥合,更自主的自我改进循环可能出现 。这直接对应我之前说的”跨上下文整合2028-2032开始被松动”——方向一致,但节奏可能更快。
•2026年的重点是构建具有上下文窗口和类人记忆等能力的智能集成系统 。持续记忆正在被攻克。
对你的具体建议
结合以上进展,我的判断是:你在第二层建立优势的窗口期不是”正在关闭”,而是”已经非常窄了”。 以下是我建议你现在就做的事:
立刻做的:成为AI agent的”指挥官”而非”操作员”。 现在的竞争力分水岭已经不是”会不会用AI”,而是能不能把多个agent编排成完整的工作流、并在关键节点做出正确的干预判断。你应该开始实际搭建和管理multi-agent工作流,积累这方面的实战经验。
持续投入的:练习高速取舍。 Morgan Stanley的结论很直接——竞争力的核心正在变成由计算力和能源锻造的纯粹智能 。当AI能在几分钟内给你生成十个可行方案时,你的价值在于能在这十个方案中快速选出”这一个”,并为这个选择负责。这个能力的训练方法很简单:每次AI给你多个选项时,强迫自己在限定时间内做出决定,并事后复盘决策质量。
开始布局的:建立AI无法获取的独有上下文。 你的人脉、你对特定行业的体感判断、你在真实项目中踩过的坑——这些是AI目前无法替代的。有意识地把这些经验结构化记录下来,它们会成为你与AI协作时最独特的输入。
警惕的一件事: 目前最大的挑战不是技术本身,而是整合、工作流重新设计和组织变革之间的实施差距 。这意味着能把AI能力翻译成组织实际运行改进的人,在未来两年会极度稀缺。如果你的工作涉及这类角色,这是一个非常值得加注的方向。
夜雨聆风