2026年2月,推特的创始人Jack Dorsey,砍掉了自己另一家公司将近一半的员工。
将近5000人。一夜之间没了工作。他对媒体说了一句话,大意是:AI已经让这些岗位没有存在的必要了,而且"一年之内,大多数公司都会得出同样的结论。"
这句话最可怕的地方,不是它的冷酷。
是它的诚实。
因为他说的很可能是对的。2025年一年,光是美国科技行业就裁了超过10万人,其中一大半明确提到AI是主要原因。Salesforce一口气用AI替换了4000名客服。高盛和Infosys部署了一个叫Devin的AI编程助手,一个高级工程师带着它,能干五个人的活。
这里有个严重的社会层面的问题:你裁掉的员工,也是别人的客户。
如果所有公司一起裁,裁掉的就是整个市场的消费者。到时候你的产品卖给谁?
宾夕法尼亚大学的Brett Hemenway Falk和波士顿大学的Gerry Tsoukalas,今年3月发了一篇论文,标题就叫《The AI Layoff Trap》。他们用博弈论,严格地证明了一件事:即使每一个CEO都是完全理性的,即使他们全都清清楚楚地看到了前面是悬崖,他们还是会集体踩油门冲过去。
不是因为蠢,恰恰是因为"聪明"。

我裁员省的钱,是从你的客户口袋里掏的
我来讲一个简化版的故事,帮你理解这个模型的核心逻辑。
假设整个市场只有两家公司,A和B。它们的员工,同时也是彼此的客户。A的员工买B的产品,B的员工买A的产品。经济就是这么循环着转的。
现在AI成熟了。两家公司各自面临一个选择:裁员用AI,还是保留人力。
如果A和B都忍住不裁,消费者的购买力不变,大家一起赚钱,日子过得还不错。
但A的CEO会算一笔账:如果我裁了,对手没裁,会怎样?我的成本大幅下降,利润飙升。而因为B还雇着人,市场上的消费者还在,需求没崩。我赢麻了。
反过来,如果B裁了我没裁,那B赢我输。
所以不管对手怎么选,"裁"对我来说都是更好的选择。
B的CEO做了一模一样的计算,得出了一模一样的结论。
结果?
两家都裁了。成本确实都降了。但消费者呢?消费者就是他们刚裁掉的那些人。市场塌了,两家公司的利润反而比"都不裁"的时候更低。
每个人都做了对自己最好的选择,最后的结果却是对所有人最差的。
看见悬崖,和踩得住刹车,是两回事
你可能会说:这两家公司的CEO要是能坐下来谈谈就好了。你别裁,我也不裁,咱们一起维持市场。不就行了吗?
不行。
论文证明了一个很关键的点:裁员在这个博弈里是"占优策略"。意思是,不管对方怎么做,裁员对你来说永远是更好的选择。这不是一个"如果我们能协调就好了"的问题,这是一个"即使我们协调了也没用"的问题。因为任何"大家都不裁"的协议,都不是自执行的。你签完协议回到办公室,立刻就有动力偷偷裁,因为偷裁的那个人获利最大。
所以即使所有CEO坐在同一个房间里,充分沟通,完全理性,完美预见未来,他们依然会集体冲向悬崖。
看见悬崖没有用。你需要的是一个外力,帮你把脚从油门上挪开。
培训、发钱、持股,为什么全都没用?
论文接下来做了一件很有价值的事:逐个检验了六种大家经常讨论的应对方案。
技能培训?有用,但不够。你培训完的工人确实更难被替代,但只要裁员还是占优策略,企业还是会裁。培训只是缩小了问题,没有消除问题。
全民基本收入(UBI)?听起来很对症:裁员的问题不是没人消费吗,那政府直接发钱补上不就好了?但UBI改变的是人们的收入底线,改变不了企业做决策时面对的那道算术题。那道算术题还是说:裁了更划算。所以企业照裁不误。
资本所得税?不改变企业的自动化决策。税是对利润整体收的,但裁员的决定发生在"每一个岗位"这个颗粒度上。你对总利润加税,不影响"这个岗位要不要用AI替换"的边际计算。
员工持股?让员工分享公司利润,确实能回收一部分购买力。但只要外部性还在,过度自动化的激励就还在。
企业之间自愿协商?刚才说了,不是协调问题,是占优策略问题。协议签了也白签。
逐一排除之后,论文发现只有一种机制能真正解决问题:对自动化裁员本身征税。
逻辑和碳税一模一样。工厂排碳,污染的是所有人的空气,但工厂不用为这个后果买单,所以它会拼命排。碳税的作用就是:你排了多少碳,就为这部分污染付多少钱,让你在做决策的时候不得不把这笔账算进去。
AI裁员也一样。你裁掉一个岗位,省下的成本归你,但消费需求的损失由整个市场承担。你没为这个后果付过一分钱。论文说,应该对每一个被AI替代的岗位征一笔税,税额等于这个岗位消失后造成的、但企业没承担的那部分需求损失。
这不是惩罚企业用AI。这是让企业在做裁员决策的时候,算进那笔它本来忽略的账。
所有人都跑得更快了,但没人往前挪了一步
还有一个反直觉的结论,可能是整篇论文里最让人不安的。
直觉上,AI技术越强,生产力越高,经济应该越好。
但论文证明了相反的结果。
每家公司看到更强的AI,都觉得:太好了,我用这个AI可以比竞争对手做得更快更便宜,能抢更多市场份额。但所有公司都这么想。在均衡状态下,大家同时升级,市场份额谁也没多抢到,相互抵消了。唯一留下来的,是更大幅度的裁员,和更深的需求塌陷。
论文把这叫"红皇后效应"。这个名字来自《爱丽丝镜中奇遇》:红皇后拉着爱丽丝拼命奔跑,爱丽丝气喘吁吁地问为什么景色没有变,红皇后说:"在我们这个地方,你必须拼命跑,才能留在原地。"
AI越好,每家公司跑得越快,但没有人真的往前走了一步。地面却在它们脚下塌陷。
善良的CEO和冷血的CEO,会做出一模一样的决定
我想在最后说一件更大的事。
这篇论文让我不安的地方,其实不是AI裁员本身。而是它揭示了一种更普遍的困境:有些灾难,不是任何人的错,但也不会被任何人自发地解决。
市场经济是人类发明的最精妙的系统之一。它有一个绝妙的特性:每个人都在为自己赚钱,但这种自私恰好驱动着每个人去想尽办法满足别人的需求。你想赚我的钱,就得做出我想要的东西。亚当·斯密两百多年前就看到了这一点。
但同一套规则,换一个条件,就会从良性循环变成恶性循环。
当企业需要人来生产的时候,"雇人"和"有人消费"是绑在一起的,循环是自洽的。但当AI让企业不再需要人就能生产的时候,这个绑定断了。你裁掉的员工不再是你的成本,但他们仍然是整个市场的消费者。成本消失了,但需求也跟着消失了。规则没变,条件变了,结果就从正反馈变成了负反馈。
这跟CEO是善良还是贪婪没有关系。Twitter创始人可能对那5000个员工深感抱歉,也可能毫无感觉。这不重要。在这套规则里,一个善良的CEO和一个冷血的CEO会做出完全一样的决策。
这就是结构性问题最让人无力的地方:你没法靠呼吁善良来解决它,也没法靠等待某个英雄来解决它。你只能改规则。
论文说,那个规则改动是对裁员征税,就像对碳排放征税一样。
也许它是对的,也许未来会有更好的方案。但有一件事是确定的:如果我们不去修改游戏规则,那些在规则里做出"最聪明"选择的玩家,会把我们所有人拖进一个谁都不想去的地方。
不是因为他们邪恶,而是因为游戏规则。
参考文献
Falk, B. H., & Tsoukalas, G. (2026). The AI Layoff Trap.Working Paper, University of Pennsylvania & Boston University. arXiv:2603.20617.
夜雨聆风