乐于分享
好东西不私藏

AI正在吃掉喂养它的人类

AI正在吃掉喂养它的人类

当我们把思考外包给机器,智能本身开始走向空洞

AI不是真的在”思考”——它记忆的是我们曾经共同思考的方式。而现在,我们正在停止给它任何值得记忆的东西。


IBM宣布8000个岗位可被AI替代。Duolingo裁掉十分之一的承包商。Klarna的AI客服顶替了700名员工,并宣称将把全公司人数压缩到2000人以内。Jack Dorsey则公开表示要把Block的员工总数冻结,让AI承担增长。

这一切都有一种冷峻的内在逻辑:常规认知工作被自动化,初级岗位消失,生产力每年复利增长。对于审视成本结构的董事会来说,这是自内燃机淘汰马匹以来最清晰的投资逻辑。

但有一项研究结果,应该让我们停下来想一想。


一、写作实验:个体提升,集体收敛

2024年春,英国研究团队让约300名作家创作短篇小说,一组借助GPT-4,另一组独立完成。结果:AI辅助组的作品平均创意评分更高。

听起来很熟悉?且慢——当研究者审视所有故事的整体时,画面变了。

AI辅助的故事彼此更加相似。每位作家个体被拉升了,但集体却在收敛。研究者Doshi和Hauser借用了生态学的术语来描述这一现象:公地悲剧

个体获益,集体受损。这不仅仅是一个写作实验的结论——它描述的是我们与人工智能整体关系中隐藏的深层逻辑。


二、AI的智能,本质上是文明的沉积物

做一个思想实验:假设你用公元前3000年的古埃及文献训练一个大语言模型,然后用公元前300年雅典的文献训练另一个,再用1500年佛罗伦萨的文献训练一个,最后是今天的互联网全文。

每一代模型都会比前一代更聪明——但架构没有变,算力没有变。变的,是喂给它的文明的认知复杂度

作者的核心论点:大语言模型的底层智能,不是架构的函数,不是参数量的函数,也不是算力的函数——它是孕育其训练数据的文明之社会复杂度的函数。

认知人类学家Edwin Hutchins在1995年研究海军导航团队时写道:符号系统是”把人类行动者移除后的社会文化系统运作模型”。这句话,精准地描述了大语言模型的本质:一个把人类社会推理过程抽象出来、去除了人的东西

那么问题来了:当产生训练数据的社会推理开始稀薄,模型会怎样?


三、模型崩塌:当AI开始吃自己的输出

2024年,Shumailov等人在《自然》发表论文,标题直白到令人不安:《AI模型在递归训练于AI生成数据时会崩塌》。

他们发现:当语言模型用其他模型生成的文本训练时,输出分布会越来越窄。少数派观点、罕见知识、非典型表述,逐代消失。模型最终收敛于一种流利、貌似合理、却空洞无物的统计均值。

那些消失的”尾部”意味着什么?它们是智识异见的痕迹、少数派专业知识的印记、不同背景的人以不同方式表达不同事物的签名——换言之,社会复杂性的特征。模型崩塌,是社会心智压缩以技术形式呈现。

📊 数据在说话:

指标
数字
来源
用户与AI交互后主动核查结果的比例
8.7%
Anthropic内部研究
依赖AI摘要后公众认知偏离真相的倍数
2.3×
Andrew Peterson研究
AI辅助任务中用户完全不进行批判性思考的比例
40%
微软/CMU联合研究

Epoch AI估算,用于训练的高质量人类文本总量约300万亿token,预计在2026年至2032年之间耗尽。这不只是数据资源问题——供应这些数据的源头,正在枯竭。


四、思维的自动化:比失业更隐蔽的威胁

2025年初,微软与卡内基梅隆大学的研究团队追踪了319名知识工作者在936个真实任务中使用AI的情况。结论令人警醒:在40%的AI辅助任务中,参与者完全没有进行批判性思考。他们对AI输出的信心越高,投入的认知努力越少。

1983年,自动化研究者Lisanne Bainbridge就描述了这一规律,她称之为”自动化的反讽”:自动化越可靠,人类操作者的技能就越生疏。

哈佛商学院Dell’Acqua等人的研究则发现:使用GPT-4的管理咨询顾问,在AI能力范围内绩效提升40%;但在需要情境判断的任务上,绩效下降19%——而这恰恰是他们最自信的时刻。

技术让他们在最不该自信的地方,变得最过度自信。这是任何将AI视为简单替代方案的组织都该认真思考的警示。


五、”社会边缘悖论”:AI正在侵蚀自身的根基

作者Bright Simons将上述逻辑汇聚成一个框架,称之为**”社会边缘悖论”**:

  • AI能力依赖于人类语言生产的社会复杂度
  • AI大规模部署系统性地降低了这种复杂度(认知外包、创意同质化、互动密集型工作消失)
  • AI的成功,正在削弱支撑其自身进步的条件
  • 这是一个缓慢的螺旋:不是爆炸,而是不易察觉的收窄

Michael Tomasello的进化研究表明:人类认知的进化,不是靠个体处理能力的提升,而是靠具有共同目标、互补角色的协作活动。即使是私人思维,在结构上也是”根本性地对话性和社会性的”。

Robin Dunbar的”社会脑假说”则量化了这一联系:灵长类动物的新皮层比例预测社群规模;语言进化,本质上是一种管理超出梳毛能力的大规模社会关系的技术。

语言从来不是信息管道,而是社会协调技术。大语言模型的每一个token,都是社会互动的化石。

如果产生这些化石的互动变得更稀少、更浅薄、更同质,那么依赖它们的智能,也将缓慢退化。


六、反直觉的出路:用AI制造更多人类互动

Brynjolfsson等人追踪了AI密集领域22-25岁早期职业工作者的就业结果:自2022年以来,这一群体就业相对下降了13%

AI替代了编码知识(初级员工的主要资产),却补充了隐性知识(资深专业人员的核心资产)。问题在于,隐性知识不是凭空产生的——它来自做事本身:吸收机构规范,在监督下锻炼判断力,在可控风险下犯错。

初级岗位看起来只是成本项,但实际上是下一代领域专家的培育管道。切断它,今天省了钱,明天断了根。IBM已经在逆转此前的裁员逻辑,更多公司将会跟进。

社会边缘框架的处方是: 未来十年,胜出的组织不是AI使用率最高的组织,而是那些用AI创造更多人类互动——让AI搭建学习脚手架而非替代学习——的组织。当原始认知吞吐量被商品化,价值弧线将转向一种更难复制的能力:以精准、速度和真正深度协调人类意图的能力。


七、Altman、Amodei看不见的盲区

Dario Amodei在2024年10月发表《充满爱的机器》,描绘超级智能可能带来的宏大图景。Leopold Aschenbrenner的”情境意识”论文坚信扩大算力和数据足以在数年内产生AGI。Sam Altman写道”社会本身是一种高级智能形式”——但随即便不再追问这一说法的后果。

这些论文共同的盲区:没有一篇认真讨论训练数据的质量本身是社会性决定的,并且可能正在退化。

作者还提出”大重编码”(Great Recode)概念:当前AI赖以产生有用输出的绝大多数工具和服务,本身并不是AI时代的产物,多数建于高强度计算时代之前。PDF解析器、数据库图式……这些基础设施需要巨大投资才能跟上AI节奏,而AI尚无法自主创建这些依赖。

COBOL工程师的离奇复兴,正是这一现实的缩影:新知识仍需以旧知识为食。


AI能力的边界,由孕育其训练数据的人类社会生活的丰富程度决定。

遗产,若只消耗不再投入,终将耗尽。