“CTO们在放下头衔,中层在结构性消失,剩下的每个人都在重新回答一个问题:当AI能替你执行、替你决策、替你迭代,你的价值到底在哪?这不是一次裁员潮,而是一次职业底层逻辑的换轨——旧的晋升梯子正在被拆掉,新的价值锚点还没建好,所有人都悬在中间。”
2025年初,一个不太起眼的名字出现在Anthropic的新员工名单里:Niki Parmar。
如果熟悉AI圈,你可能知道这个名字——Transformer论文的共同作者、Adept AI的联合创始人兼CTO。她的上一个身份,是把一家AI初创公司从零带到被估值数十亿美元的掌舵者。
如今,她在Anthropic的Title是"MTS"——一个普通的技术团队成员。
这只是开始。
2025年7月,Henry Shi离开了他创办的Super.com。这家公司年收入已达2亿美元,作为一个连续创业者和CTO,他本可以在管理层级里继续往上走。但他选择了相反的方向——加入Anthropic担任MTS。几个月后,Box的CTO也做了同样的选择。

2026年初,Mike Krieger做出了也许是其中最引人注目的决定。这位Instagram联合创始人、前CTO,在加入Anthropic担任CPO一年后,转入了内部的Labs孵化团队。他的团队后来推出了Claude Design——发布当天,Figma股价应声下跌超过7%。
2026年3月,又有两个重量级名字出现在Anthropic的名单上:Bryan McCann,AI搜索引擎You.com的联合创始人兼CTO;Peter Bailis,Workday的CTO——此前他曾是斯坦福计算机科学助理教授,创办的Sisu Data融资超1.28亿美元后被Snowflake收购,曾任Google Cloud工程VP。在Workday,他只待了11个月。
这些人的共同选择,不是降级,而是换轨——从管理别人,到亲手触碰这个时代最重要的技术变量。
答案藏在一条正在成形的职业新逻辑里。
在很长一段时间里,技术人的职业发展像爬一座梯子。
初级工程师写代码,高级工程师做技术决策,技术专家带团队,再往上走,就到了那个著名的"分叉点"。
在这个分叉点,你必须选。
往左,是架构师路线。继续深耕技术,但天花板触手可及——你设计系统,但不一定有人采纳;你影响产品,但最终拍板的是别人。往右,是管理路线。从管一个小组开始,慢慢管更多小组,最终管整个技术团队。
但无论往哪边走,有一个隐含的规则从来没变过:你影响力的天花板,取决于你能触达多少人的协作网络。

一个高级工程师管自己,一周产出百行代码。一个技术总监管20个人,产出是20个人的叠加。一个CTO管200个人,产出是200个人的叠加再加上方向判断。
这听起来很合理。但合理的背面,是另一种不合理的分工:每一层管理者存在的理由,本质上是信息传递的成本太高。CEO 脑子装不下1000个员工的名字和进展,所以有了VP;VP 装不下200个员工的详细情况,所以有了总监;总监装不下80个员工的具体工作,所以有了经理。
每一层,都是人脑带宽不够用的妥协方案。
而梯子的残酷之处在于:你必须往上爬,才能获得更多上下文。技术专家想参与产品战略?先带团队。带团队想影响业务方向?先升总监。升了总监想接触客户?先管更大的盘子。

职业梯子的本质,是一张以管理层级为计量单位的入场券。
甲骨文在2026年3月31日干了一件事,震动了不少人。
他们裁员2到3万人,约占员工总数的18%。但这不是最让人意外的事——最让人意外的是这次裁员的方式:不是按项目砍,不是按产品线砍,而是精准瞄准了一个角色类型——软件开发者和项目经理。

甲骨文在官方声明里说得相当直白:"AI Code Generation technology is enabling us to build more software in less time with fewer people."
资本市场的反应微妙而复杂:同一个月,Oracle宣布将投入580亿美元建设AI数据中心,与裁员形成了一种奇怪的并置——一边是"人力换算力"的信号,一边是算力本身的军备竞赛。两种叙事同时存在,都指向同一个方向。
这不是简单的降本增效,而是在重新定义"人"在算力时代的价值。
2025年10月,亚马逊裁掉了约14000名企业文职。三个月后的2026年1月,又一轮约16000人。累计约3万人。精准裁减L5到L7的中层管理者。
然后,他们把省下来的资源——同期亚马逊的云业务积压订单合同金额约2000亿美元——投向更大规模的AI基础设施建设。

CEO安迪·贾西随后宣布了亚马逊内部一个意味深长的变化:所有白领头衔统一改为"Builder",经理改为"Builder Leader"。不是改名这么简单,而是整个评价体系的重构:淡化层级,强化产出。
行业数据印证了这个趋势。据行业分析,科技公司管理者与下属的比例从2019年的约1:3提升到2024年的约1:6,管理幅度接近翻倍。不是公司在减员增效,而是在重新定义"管理"这件事存在的理由。
2026年1月,ASML业绩创下历史新高,同时宣布精简IT部门1700个管理岗位。他们在公告里写得很诚实:"公司已失去该有的敏捷性。"
这些消息放在一起,指向一个结论:中层管理者正在经历一场结构性淘汰。不是AI替代了某个人的工作,而是AI消灭了"中层"这一整个层级存在的理由。
但故事不全是悲观的。
有些人在这场变革里闻到了机会的味道。
前CTO们开始悄悄离开大公司的管理岗位,去Anthropic、OpenAI、Cursor这样的AI原生公司做IC。不是降级,而是换轨。
一个曾经管过200人团队的CTO,为什么要去一个AI公司写代码?
因为他们算过一道数学题。
过去,影响力 = 管理人数 × 下属执行效率。
现在,影响力 = 调用的模型能力 × 个人判断力。
当工具本身能执行、能推理、能迭代,"管人"的杠杆正在快速缩小,而"驾驭工具"的杠杆正在急速放大。
这些CTO选择Anthropic,不是因为IC比CTO舒服,而是因为他们意识到:离模型越近,信息差越大,杠杆越大。每天和全世界最强的模型做对抗测试,积累对AI能力边界的直觉,这种经验比管100个人的经验值钱得多。
这不只是一种直觉。风投机构SignalFire在2025年的报告显示:在AI人才流动中,从OpenAI流向Anthropic的工程师比例是反向流动的8倍;从DeepMind流向Anthropic的比例更是接近11:1。与此同时,Anthropic近两年的员工留存率高达80%——在所有主要AI实验室中最高。
这是市场在用脚投票。
这是第一种正在形成的职业新逻辑:离模型近,好过离管理层近。
而真正把这种逻辑推向极致的,是OpenAI的联合创始人Andrej Karpathy。

2026年3月,他在No Priors播客里说了一句让技术圈震动的话:"我大概从2025年12月起,就没再敲过一行代码了。"
这句话的冲击力在于:一个OpenAI的联合创始人,一个教全世界写深度学习代码的人,主动放弃了亲自写代码这件事。
他的工作比例已经完全反转:以前是80%手写加20%AI,现在是80%AI加20%手动。
到了2026年5月1日的Sequoia AI Ascent大会,他又往前走了一步。他宣布"vibe coding已经过时",取而代之的是"Agentic Engineering"——开发者不再是逐行编码的匠人,而是指挥AI代理的指挥家。
这不是关于效率的进化,而是关于工作本质的重新定义。
但"指挥AI代理"这件事,大多数人还没学会怎么做到。
因为大多数人对AI的认知,还停留在第一个层次。
工具。
"我原来的事,现在做得更快了。"写代码快一点,写文档快一点,搜信息快一点。省下来的时间呢?被新的任务填满了。能力边界没有真正扩展,只是效率在原地提升。就像给你一把电锯,你砍树确实更快了——但你仍然只是在砍树。
这种思维有个致命的问题:你在用AI优化存量,而不是创造增量。
放大器。
再进一步的人,开始把AI当作放大器。"AI让我一个人顶一个团队",听起来很猛。但放大器论的本质是同构扩展:你还是在做原来那个方向的事,只是输出量级放大了。伐木机效率比电锯高十倍,但你仍然只是在伐木。方向没变,边界没变,只是强度增加了。
工具和放大器之间,有个共同的心理陷阱:它们都让人觉得已经抓住了AI的价值。效率暴增的感觉很爽,以至于很难意识到——你只是在自己熟悉的路上跑得更快,而那条路本身可能正在变窄。
伙伴。
真正不一样的,是第三种认知。
伙伴不是帮你做事,是和你一起做事。区别听起来微妙,结果天差地别。
一个会用"伙伴思维"工作的工程师,遇到一个复杂的系统设计问题,不会自己闷头想两周然后找AI优化。他会直接和AI对谈:"我面临的问题是X,有这些约束条件,你觉得A方案和B方案哪个更合理?为什么?"
然后AI会给出判断,工程师再基于判断做取舍。AI提供信息整合和模式匹配,人提供价值判断和方向感。最终产出的系统设计方案,是一个顶级工程师加顶级模型才能做到的——单独任何一方,都做不到这么好。
这就是伙伴思维的核心:能力涌现。1+1大于2。

Karpathy分享过一个他亲手做的实验。他建了一个AI代理,让它接管整个智能家居系统——扫描本地网络、逆向工程Sonos音响的API、创建统一的控制面板、用视觉模型识别FedEx快递车并自动发WhatsApp提醒。
一个人加AI,完成了一件以前需要智能家居集成商团队才能完成的事。
这就是"伙伴"这个词的分量。不是效率叠加,是能力涌现。
自主。
而伙伴思维的下一层,是自主。
让AI独立完成一些事——不是帮你做,而是它自己做。你只需要定义:做什么,做到什么程度,什么时候必须停下来。
Karpathy做过一个叫AutoResearch的实验。他让一个AI代理围绕"小模型训练优化"这个目标持续运行48小时,不做实时监督,只是设定目标和边界条件。
结果:700次迭代,发现20项优化。AI在无人监督的情况下,自主找到了一套人工可能不会想到的优化路径。
这意味着什么?意味着人从"操作者"变成了"规则制定者加异常处理者"。你不需要知道AI每一步在做什么,你只需要知道它做到什么程度该检查一下,以及什么时候必须叫停。
这就是自主思维的本质:把循环性的、标准化的、可预期的工作交给AI自主运行,人只做监督和异常处理。
从工具到伙伴到自主,不是三选一,而是三个层次同时叠加。
同时在这三个层次上运作的人,和只在工具层用AI的人,差距是指数级的。
这才是真正的危险之处。
大多数人在第一次"放手让AI试错"的时候就退回来了。控制欲在作祟:不放心AI独立做事,总觉得要盯着每一步。但越盯,AI就越退化成工具。
还有一些人是被评价体系困住了。组织的考核还是按"你做了什么"来计算绩效,而不是"你让AI做到了什么"。在这种体系下,聪明的做法是把AI藏在幕后,用AI把自己包装得更强——而不是真正学会和AI协作。
Karpathy把这种状态称为"AI psychosis"——AI精神错乱。他说,AI能力解锁之后,唯一瓶颈不再是键盘速度,而是如何精准表达意图、设计代理架构、设定边界条件。"可能性是无限的,这正是精神错乱的根源。"
这句话的潜台词是:在AI时代,最大的障碍不是能力,是想象力。
如果个体的认知在变,组织的形态也在变。
以前的公司像一棵树。CEO是根,中层是干,员工是枝叶。信息从根传到叶要经过很多节点,每个节点都在做缩放和转发——CEO说"今年要增长30%",VP翻译成"每个部门增长35%",总监翻译成"每个团队增长40%",经理翻译成"每个人完成X"。

这个翻译链越长,失真越严重。
但AI改变了信息传递的成本。
想象另一种组织形态:中间是一个AI智能中枢,周围连接着一个个高能力的个人贡献者。信息不再需要层层传递——每个人都能直接从中枢获取所需的上下文,也能直接把产出推送回去。没人开"同步会",因为智能体共享同一套上下文,信息零损耗。
这不是想象。盛大旗下的AI团队"盛景智能"已经试点了一个20人项目组:彻底取消中层,废除KPI,所有任务由智能体自动拆解、分配、执行、复盘。
6个月后的结果是:交付速度翻了3倍,错误率下降82%。
这种组织里,"中层"这个概念本身就不存在了。取而代之的是一个新角色——系统调优者,决定AI中枢怎么工作、边界在哪、什么决策必须上交人类。
这个角色更像是牧羊人,而不是管理者。
钉钉的无招也说过一句类似的话:"公司不需要中层。"

当然,这话有点绝对。但他说的内核是对的:当信息可以直接流转、当决策可以分布式做出、当AI可以承接大量的协调和翻译工作,中层作为"信息管道"的价值就在快速萎缩。
而当组织不再需要信息管道,"文档"这个东西的命运也在改变。
文档是为"人→人"的信息传递设计的。在"人→AI→人"的链条里,它是冗余的。AI不需要读你的PRD,它可以直接看代码库、看需求对话的原始记录、看用户反馈数据,然后自己生成方案。
文档不会消失,但它的形态在变——从"人类协作的中间产物"变成"AI可以消费的上下文"。这不是文档的消亡,是文档的升级。
陈天桥说过一句话,值得单独拿出来想一想。
"管理学不是真理,它只是给人类大脑打的补丁。"
KPI是因为人容易忘目标。科层制是因为人记不住太多事。开会是因为信息不能同时到达所有人。这些制度,不是为了优化效率而设计的,而是为了弥补碳基生命的天然缺陷。
当执行不再依赖人的意志力和记忆力,当AI可以承接那些"补丁"的工作,这些管理工具反而成了拖后腿的枷锁。
这不是在说管理没有价值。真正的判断力、真正的人才识别、真正在模糊地带做出取舍——这些能力不会消失,而且会更稀缺。
消失的是那些"因为人脑不够用"才产生的中间层。
所以真正值得问的问题,不是"AI会不会替代我",而是"AI替代的那部分,是我的核心价值吗"。
如果你每天八成的时间在做信息搬运和流程推进,那答案可能不太乐观。但如果你每天在做的,是只有人才能做的判断——关于方向、关于人、关于价值、关于什么是对的——那AI不是威胁,是杠杆。
当然,有些问题悬而未决。
模型能力正在快速平权化。DeepSeek V4的定价只有Claude的零头,但性能差距在迅速缩小。当顶级模型变成水电煤,"离模型近"的稀缺性会下降吗?

组织能力不会完全消亡。从管人到管AI Agent的编排调度,这是否是另一种形式的"管理"?Karpathy说未来开发者要掌握"多代理团队、记忆管理、权限控制"这些新抽象层——听起来和管理者做的事情,本质上没有区别。
还有判断力的边界问题。Sam Altman用国际象棋做过一个类比:最初AI加人类组合最强,因为人类的直觉可以弥补AI的盲点;但随着AI进步,人类输入反而开始拖后腿,AI自己下得比人机协作更好。在商业决策领域,同样的拐点会来吗?
以及,Karpathy预言的"Slopocalypse"正在发生。GitHub和arXiv上开始充斥"几乎对但不太对"的AI生成内容。当AI产出泛滥成灾,验证能力和品味,会成为比生产能力更稀缺的技能。
这些问题没有现成的答案。
唯一确定的是:AI进化的速度,可能比大部分人想象的快。而这场变革真正考验的,不是你会不会用AI——而是你敢不敢重新想象,自己到底是谁。
夜雨聆风