甲骨文裁员3万人,英特尔裁2.5万,微软裁9000,亚马逊裁1.6万,Meta计划裁掉20%……一连串血淋淋的数字摆在眼前,人们很容易得出一个恐慌性的结论:AI正在疯狂屠杀人类的工作。连刚刚获得诺贝尔物理学奖的“AI教父”杰弗里·辛顿都站出来警告:AI会导致大规模失业。但事情的真相,可能比“机器抢走饭碗”更复杂,也更残酷。
先看一组反直觉的数据。
AI巨头Anthropic今年3月发布了一份报告,发现所谓的“AI依赖型职业”——比如技术撰稿人、软件工程师——目前的失业率,跟体力劳动行业并没有明显差异。 想象中的“AI瞬间吞噬白领岗位”并没有发生。那这些科技巨头为什么还在发疯一样裁员?
甲骨文给出的答案很直白:我们需要钱。
这不是因为经营不善,而是他们要砸下500亿美元,去疯狂建设AI数据中心和算力基础设施。钱从哪来?只能砍人。英特尔、微软的逻辑也如出一辙。当下的科技巨头裁员,本质上是一场“资本支出的乾坤大挪移”。
这就像19世纪的加州淘金热。现在所有人都在抢着买“铲子”(英伟达的显卡)和建“矿井”(数据中心)。科技公司不得不在AI基础设施上进行军备竞赛,因为一旦算力落后,就意味着在下一个十年被淘汰出局。所以,现在的裁员不是因为AI已经完美替代了员工,而是公司必须把资源从“人力”强行转移到“算力”上。 投资的钱,只能从传统业务线的人身上省。甚至,AI自己都还没跑通商业闭环。OpenAI那个惊艳全球的视频生成工具Sora,每天光算力成本就烧掉1500万美元,因为商业化遥遥无期,今年3月不得不按下了暂停键。
这意味着,AI的替代能力远没有到达“成熟摘果子”的阶段,它还处在疯狂烧钱的基建期。
02 为什么连诺奖得主也会预测“翻车”?
辛顿作为深度学习的奠基人,他的警告当然振聋发聩。但即便是最顶尖的专家,在预测就业这种复杂的经济问题上,也未必全对。
这里有一个经典的“放射科医生悖论”。
2016年,AI辅助医疗影像诊断刚刚兴起,当时所有专家都在预测:放射科医生完蛋了,这个岗位将被AI彻底消灭。结果呢?到了2025年,美国放射科医生的平均年薪不降反升,涨到了52万美元,住院医生的招募名额反而增加了。
为什么?因为AI接管了基础的、重复性的阅片工作后,大幅提升了诊断的准确率,反而激发了更深层次的医疗需求。 医生不再是苦哈哈的“看图员”,而是变成了最终拍板、处理复杂并发症、以及与患者进行深度沟通的“决策者”。
在经济学中,这叫“ATM机效应”。
当年ATM机发明时,大家都以为银行柜员要大规模下岗。结果是:因为开网点的成本大幅降低,银行开设了更多的分行,反而雇佣了更多的柜员。只不过柜员的工作内容,从“数钱”变成了“推销理财产品”。
辛顿们的预测盲区在于:他们只看到了AI在“单点任务”上的超越,却忽略了真实世界“系统工作流”的复杂性。
AI替代的是“任务(Tasks)”,而不是“岗位(Jobs)”。当基础任务被AI解决后,整个工作流程的复杂度往往会升级,反而需要更多具备高级判断力的人类来兜底。毕竟,AI如果诊断错误或写错代码,它是没法坐牢担责的。
03 真正的危险不是失业,而是“AI鸿沟”
比起被“AI抢走工作”的焦虑,更值得我们警惕的,是职场正在加速形成的一道“AI鸿沟”。
第一层鸿沟是“用不上”(这在基建狂魔中国已经基本被抹平,大模型几乎触手可及)。
第二层鸿沟才是真正的陷阱:“用不好”。
哈佛商学院和麻省理工学院曾联合对波士顿咨询(BCG)的顾问进行过一项真实的AI职场实验。结果发现,全面拥抱AI的顾问,完成任务的速度快了25%,质量高出40%。
但研究人员指出了一个更致命的分化:
很多普通人只是把AI当成“高级百度”,问个问题、写个邮件——这就像买了一台顶级钢琴,却只用它弹《两只老虎》。工具在你手里,但你随时可以被另一个会弹《两只老虎》的人替换。
真正拉开阶层差距的,是那些进入“半人马模式(Centaur)”或“赛博格模式(Cyborg)”的人:
* 普通玩家(做减法): 让AI帮我总结一份报告。核心价值是“省事”。
* 高阶玩家(做乘法): 把行业深度数据喂给AI,让AI扮演苛刻的投资人,对自己的商业计划书进行反向提问和漏洞排查。核心价值是“认知扩展”。
前者,是在把AI当工具;后者,是在把AI当思维合伙人。
04 在分化的世界里,站对你的位置
回到文章开头的裁员潮。
甲骨文虽然裁掉了3万人,但他们同时也在以数倍的薪资,疯狂招募AI工程师、大模型微调专家和算力运维人员。
旧的岗位没有消失,它只是换了一身马甲,向更高阶的技能点迁移了。
这种技能迁移对个体来说当然是痛苦的。但把时间拉长来看,人类历史上的每一次技术革命——从蒸汽机到电力,从PC到互联网——每一次都会有人被残酷地甩下车,也总有人能精准地踩中时代的节拍。
唯一的区别是,这一次的节奏比以往快了十倍,留给普通人转型的窗口期更短了。
所以,与其深夜焦虑“AI会不会抢我的饭碗”,不如明天上班时问自己一个更实际的问题:
我现在打开对话框的方式,是在把AI当玩具,还是当伙伴?
如果你的用法,是一个实习生都能轻易替代的指令,那你确实很危险;
但如果你能把AI深度整合进你独有的专业判断、经验壁垒和决策流程中,那你就不是在“使用AI”,而是在“与AI协作进化”。
记住,打败你的从来不是技术本身。
鸿沟不是代码制造的,是认知制造的。
💡 今日互动:
你在日常工作中,发掘了哪些把AI当“思考伙伴”的神仙用法?欢迎在评论区聊聊,我们互相抄作业!
夜雨聆风