AI正在吃掉喂养它的人类
当我们把思考外包给机器,智能本身开始走向空洞
AI不是真的在”思考”——它记忆的是我们曾经共同思考的方式。而现在,我们正在停止给它任何值得记忆的东西。
IBM宣布8000个岗位可被AI替代。Duolingo裁掉十分之一的承包商。Klarna的AI客服顶替了700名员工,并宣称将把全公司人数压缩到2000人以内。Jack Dorsey则公开表示要把Block的员工总数冻结,让AI承担增长。
这一切都有一种冷峻的内在逻辑:常规认知工作被自动化,初级岗位消失,生产力每年复利增长。对于审视成本结构的董事会来说,这是自内燃机淘汰马匹以来最清晰的投资逻辑。
但有一项研究结果,应该让我们停下来想一想。
一、写作实验:个体提升,集体收敛
2024年春,英国研究团队让约300名作家创作短篇小说,一组借助GPT-4,另一组独立完成。结果:AI辅助组的作品平均创意评分更高。
听起来很熟悉?且慢——当研究者审视所有故事的整体时,画面变了。
AI辅助的故事彼此更加相似。每位作家个体被拉升了,但集体却在收敛。研究者Doshi和Hauser借用了生态学的术语来描述这一现象:公地悲剧。
个体获益,集体受损。这不仅仅是一个写作实验的结论——它描述的是我们与人工智能整体关系中隐藏的深层逻辑。
二、AI的智能,本质上是文明的沉积物
做一个思想实验:假设你用公元前3000年的古埃及文献训练一个大语言模型,然后用公元前300年雅典的文献训练另一个,再用1500年佛罗伦萨的文献训练一个,最后是今天的互联网全文。
每一代模型都会比前一代更聪明——但架构没有变,算力没有变。变的,是喂给它的文明的认知复杂度。
作者的核心论点:大语言模型的底层智能,不是架构的函数,不是参数量的函数,也不是算力的函数——它是孕育其训练数据的文明之社会复杂度的函数。
认知人类学家Edwin Hutchins在1995年研究海军导航团队时写道:符号系统是”把人类行动者移除后的社会文化系统运作模型”。这句话,精准地描述了大语言模型的本质:一个把人类社会推理过程抽象出来、去除了人的东西。
那么问题来了:当产生训练数据的社会推理开始稀薄,模型会怎样?
三、模型崩塌:当AI开始吃自己的输出
2024年,Shumailov等人在《自然》发表论文,标题直白到令人不安:《AI模型在递归训练于AI生成数据时会崩塌》。
他们发现:当语言模型用其他模型生成的文本训练时,输出分布会越来越窄。少数派观点、罕见知识、非典型表述,逐代消失。模型最终收敛于一种流利、貌似合理、却空洞无物的统计均值。
那些消失的”尾部”意味着什么?它们是智识异见的痕迹、少数派专业知识的印记、不同背景的人以不同方式表达不同事物的签名——换言之,社会复杂性的特征。模型崩塌,是社会心智压缩以技术形式呈现。
📊 数据在说话:
|
|
|
|
|---|---|---|
|
|
8.7% |
|
|
|
2.3× |
|
|
|
40% |
|
Epoch AI估算,用于训练的高质量人类文本总量约300万亿token,预计在2026年至2032年之间耗尽。这不只是数据资源问题——供应这些数据的源头,正在枯竭。
四、思维的自动化:比失业更隐蔽的威胁
2025年初,微软与卡内基梅隆大学的研究团队追踪了319名知识工作者在936个真实任务中使用AI的情况。结论令人警醒:在40%的AI辅助任务中,参与者完全没有进行批判性思考。他们对AI输出的信心越高,投入的认知努力越少。
1983年,自动化研究者Lisanne Bainbridge就描述了这一规律,她称之为”自动化的反讽”:自动化越可靠,人类操作者的技能就越生疏。
哈佛商学院Dell’Acqua等人的研究则发现:使用GPT-4的管理咨询顾问,在AI能力范围内绩效提升40%;但在需要情境判断的任务上,绩效下降19%——而这恰恰是他们最自信的时刻。
技术让他们在最不该自信的地方,变得最过度自信。这是任何将AI视为简单替代方案的组织都该认真思考的警示。
五、”社会边缘悖论”:AI正在侵蚀自身的根基
作者Bright Simons将上述逻辑汇聚成一个框架,称之为**”社会边缘悖论”**:
-
AI能力依赖于人类语言生产的社会复杂度 -
AI大规模部署系统性地降低了这种复杂度(认知外包、创意同质化、互动密集型工作消失) -
AI的成功,正在削弱支撑其自身进步的条件 -
这是一个缓慢的螺旋:不是爆炸,而是不易察觉的收窄
Michael Tomasello的进化研究表明:人类认知的进化,不是靠个体处理能力的提升,而是靠具有共同目标、互补角色的协作活动。即使是私人思维,在结构上也是”根本性地对话性和社会性的”。
Robin Dunbar的”社会脑假说”则量化了这一联系:灵长类动物的新皮层比例预测社群规模;语言进化,本质上是一种管理超出梳毛能力的大规模社会关系的技术。
语言从来不是信息管道,而是社会协调技术。大语言模型的每一个token,都是社会互动的化石。
如果产生这些化石的互动变得更稀少、更浅薄、更同质,那么依赖它们的智能,也将缓慢退化。
六、反直觉的出路:用AI制造更多人类互动
Brynjolfsson等人追踪了AI密集领域22-25岁早期职业工作者的就业结果:自2022年以来,这一群体就业相对下降了13%。
AI替代了编码知识(初级员工的主要资产),却补充了隐性知识(资深专业人员的核心资产)。问题在于,隐性知识不是凭空产生的——它来自做事本身:吸收机构规范,在监督下锻炼判断力,在可控风险下犯错。
初级岗位看起来只是成本项,但实际上是下一代领域专家的培育管道。切断它,今天省了钱,明天断了根。IBM已经在逆转此前的裁员逻辑,更多公司将会跟进。
社会边缘框架的处方是: 未来十年,胜出的组织不是AI使用率最高的组织,而是那些用AI创造更多人类互动——让AI搭建学习脚手架而非替代学习——的组织。当原始认知吞吐量被商品化,价值弧线将转向一种更难复制的能力:以精准、速度和真正深度协调人类意图的能力。
七、Altman、Amodei看不见的盲区
Dario Amodei在2024年10月发表《充满爱的机器》,描绘超级智能可能带来的宏大图景。Leopold Aschenbrenner的”情境意识”论文坚信扩大算力和数据足以在数年内产生AGI。Sam Altman写道”社会本身是一种高级智能形式”——但随即便不再追问这一说法的后果。
这些论文共同的盲区:没有一篇认真讨论训练数据的质量本身是社会性决定的,并且可能正在退化。
作者还提出”大重编码”(Great Recode)概念:当前AI赖以产生有用输出的绝大多数工具和服务,本身并不是AI时代的产物,多数建于高强度计算时代之前。PDF解析器、数据库图式……这些基础设施需要巨大投资才能跟上AI节奏,而AI尚无法自主创建这些依赖。
COBOL工程师的离奇复兴,正是这一现实的缩影:新知识仍需以旧知识为食。
AI能力的边界,由孕育其训练数据的人类社会生活的丰富程度决定。
遗产,若只消耗不再投入,终将耗尽。
夜雨聆风