上周二,我晚上7点从工位站起来,感觉大脑前额叶像被掏空了。
不是头痛,不是疲劳,是一种物理上的空茫——就像大脑整天在红线区运转,终于熄火了。我站在那里十秒钟,想不起来下一步要做什么。什么都没有。
过去一年里,我每个周二处理的信息量,以前需要整整一周。
代码审查是最糟糕的部分,但真正的杀手是上下文切换。AI生成的PR、客户的架构决策、Slack上三条关于部署问题的讨论、一份需要审阅的候选人简历、窗外响起的防空警报,然后回到审查一台机器几秒钟写完、我需要几小时验证的代码。
每一个任务都需要不同的思维模型。每一个都在消耗工作记忆。
下午4点,我做出的决策连我自己都不信任。晚上7点,我的大脑已经物理性掏空。
行业管这叫"10倍生产力"。我管这叫:一个以机器速度生成产出、逼迫人类以生物速度处理的系统。
▸工作量膨胀
2026年2月,加州大学伯克利分校的研究者在一家200人的科技公司进行了为期8个月的实地调研。40多次深度访谈。
结论:AI没有减少工作,而是在加剧工作。
他们发现了三种"工作量膨胀"机制:
任务扩张:每个人的工作范围都在扩大,因为AI让"做得更多"成为可能
边界模糊:AI提示发生在午餐、通勤、晚上的每一刻
隐性压力:当同事明显用AI做得更多,对每个人的期望都在上升
Upwork研究所量化了这一点:77%使用AI的员工说AI增加了他们的工作量。不是减少,是增加。 71%报告职业倦怠。
最让我睡不着的发现:报告AI生产力提升最高的工人,倦怠率也最高。
"最高产"AI用户的倦怠率达到88%。他们辞职的可能性是其他人的两倍。
你仪表盘上看起来最好的那些人,恰恰是最接近走出门的人。
▸人脑每秒处理10比特
2025年,Zheng和Meister在《Neuron》期刊发表论文:人类大脑处理有意识分析思维的速度约为每秒10比特。
你的感官系统每秒收集约10亿比特数据。但代码审查真正思考的那部分——瓶颈——是每秒10比特。
工作记忆一次只能容纳大约4个信息块。
SmartBear/Cisco的研究确立了所有人都忽略的数字:代码缺陷检测率从100行以下PR的87%,下降到1000行以上PR的28%。60分钟后质量崩塌。
现在看看AI对审查队列做了什么。
GitHub Octoverse 2025显示,每月合并4300万个pull request,同比增长23%。每位开发者的代码行数从4450行增长到7839行,8个月内增长76%。
Faros AI分析了10000多名开发者,发现AI用户在AI辅助下合并的PR多了98%。每一个都落在资深工程师的桌上。
正如MIT报道:初级开发者用AI工具产出更多代码,但庞大的数量正在饱和资深开发者的审查能力。
一位OCaml维护者直接拒绝了一个13000行的AI生成PR。没人有这个带宽。
我最近写过"监督税"。METR数据显示,经验丰富的开发者用AI工具实际上变慢了,却感觉变快了。感知与现实的差距,是所有发现中最危险的。
你无法修复你感知不到的问题。
▸为什么 expertise 让情况更糟
1983年,Lisanne Bainbridge在《Automatica》发表了《自动化的讽刺》。核心发现:自动化系统越复杂,其中人类角色的要求就越高。
自动化之后剩下的,是最模糊、最复杂、最缺乏支持的工作。
微软研究院2024年证实了这一点:AI系统可能让困难任务变得更难,让用户承担相同或增加的认知负荷。
机制是不对称的。当我写代码时,我将已存在的心理模型外化。思考在打字开始前已经完成。
当我审查AI生成的代码时,我必须从一个不知道我们业务做什么的系统产生的产物中,反向推导别人的推理。本质上更难。
一项针对800名软件专业人士的调查发现,59%的开发者使用他们不完全理解的AI生成代码。但资深工程师承担不起这种奢侈。 他们的工作是发现那些看起来对、实际不对的东西。
Qodo报告证实了成本分布:资深工程师对发布AI生成代码的信心最低,仅22%。上下文痛苦随经验增加:初级41%,资深52%。
大多数使用AI的工人完全跳过批判性思维。资深工程师恰恰要批判性思考——这是他们的全部工作——他们吸收了其他人卸载的认知成本。
▸身体在记账
认知伤害只是一半。身体承担另一半。
Computer Vision Syndrome影响74%的屏幕用户,而且认知负荷上升时,数字眼疲劳严重程度显著恶化。AI加剧的代码审查不只意味着更多屏幕时间,它让每小时对身体更具破坏性。
一项涵盖26916名参与者的2024年荟萃分析发现,职业倦怠使心血管疾病风险增加21%。倦怠程度最高的五分之一人群,冠心病风险高出79%。
最大的IT研究发现,长期久坐程序员的代谢综合征患病率为32%。是普通人群的两倍。
然后是睡眠。工作相关的反刍中介了工作压力与睡眠质量下降之间的联系。当我合上笔记本电脑,大脑没有停下。它在回放我没完成的PR。我标记但无法追踪的依赖。
白天更多代码审查,晚上更差睡眠,第二天早上更糟决策,更多橡皮图章PR,更多生产环境bug,更多压力。循环往复,直到某样东西崩溃。
通常是那个人。
▸仪表盘在撒谎
GitClear分析了2.11亿行变更。重复代码块增加了8倍。代码流失率从5.5%上升到7.9%。
AI生成代码平均每个PR的bug数量是人类编写代码的1.7倍。逻辑缺陷增加75%。性能问题频繁8倍。
Faros AI分析了10000多名开发者后的结论:尽管AI用户合并了98%更多的pull request,公司级交付在吞吐量或质量上没有可测量的组织影响。
Sonar的CEO指出了隐藏的危险:AI模型在避免明显bug和安全漏洞方面越来越好,但结构性缺陷现在占问题的90%以上。你被虚假的安全感催眠了。简单的问题被解决了。困难的问题藏在干净的、通过每个自动检查的代码之下。
而能发现它们的人,正被设计上超出人类认知带宽的产出量淹没。
更多代码。更多bug。更多审查负担。相同产出。更差的人类。
▸数学不成立
这是没人算账的地方。
AI刚刚让资深工程判断的需求增加了76%到98%。每个AI生成的PR都需要一个能发现机器错误、发现第847行的结构性缺陷、追踪三个服务下游逻辑错误的人。
那些人的供给没有变化。而正如我在人才危机和认知灭绝中所述,产生他们的管道正被创造需求的同样工具掏空。
2026年资深工程师的真实处境:
一边是行业裁员,自2022年以来数十万工程师被裁,下一轮永远离一次财报电话会议不远。
另一边是10倍生产力期望,由从未审查过AI生成PR的人设定。
中间,是某个疲惫倦怠的人,每天早上做一个选择:信任AI输出,因为它过去二十次都成功了不是吗?还是继续验证每一行,直到身体崩溃。
普通人能坚持多久?
最糟的部分:无论验证还是信任,工程师都要为结果负责。
凌晨3点生产环境宕机时,是你的名字在commit上。你的PR被合并了。你的事故报告。这个选择没有任何版本能让你不承担责任。
这是个反问句。我们已经知道答案。这篇文章里的数据就是答案。
如果你是资深工程师,在身体里感受着这些——你不是一个人,你也不软弱。
眼疲劳。无法恢复的睡眠。一天结束时大脑的空茫。
你在做一份18个月前不存在的工作,用20万年没有改变的认知设备。
夜雨聆风