AI 对齐的经济学真相:为什么增长导向正在将人类推向危险边缘?
当所有人都在讨论如何让 AI 对齐人类价值观时,一项最新研究指出:如果经济体系本身没有对齐人类福祉,那么在这个体系中开发的 AI 永远不可能真正对齐。
核心论点
2026 年 2 月,巴塞罗那大学、利兹大学等机构的研究者在 arXiv 发表论文 《The economic alignment problem of artificial intelligence》(arXiv:2602.21843v2),提出了一个颠覆性观点:
AI 对齐问题本质上是经济对齐问题。
研究团队指出,当前 AI 安全研究存在一个根本性盲点:如果 prevailing economic system(现行经济体系)本身没有与人类福祉和环境可持续性对齐,那么在这个体系中开发的 AI 系统也不可能与这些目标对齐。
换句话说:在增长导向的经济体系中开发 AGI,相当于训练 AI 将指数级增长作为目标——而这个目标的代价可能是人类本身。
三大风险:安全、社会、环境
论文系统梳理了 AI 发展面临的三类耦合风险:
1. 安全风险
-
• AI 系统已在图像分类、阅读理解、博士级科学问题、视觉推理和竞赛级数学等任务上达到或超过人类平均水平 -
• 2023 年对计算机科学家的调查显示:38% 的专家认为高级 AI 导致人类灭绝等灾难性结果的概率至少为 10% -
• 关于 AGI 何时实现的预测在不断提前:Metaculus 预测平台的 median prediction 从 2020 年的 2062 年缩短到 2026 年 4 月的 2032 年
2. 社会风险
-
• 权力集中、自动化说服、认知碎片化、民主治理侵蚀 -
• 对福祉影响的 sentiment 呈现两极分化:收入、认知能力、健康领域偏正面;不平等、社会关系、就业领域偏负面
3. 环境风险
-
• 超过 80% 的研究将 AI 对环境的影响描绘为正面 -
• 但大多数研究只关注 AI 如何帮助解决特定环境问题,忽视了 AI 本身可能造成的系统性影响 -
• 这些系统性影响可能对可持续性产生更深远的影响
指数级增长的 AI:人类无法理解的函数
物理学家 Albert Bartlett 有句名言:“人类最大的缺点是无法理解指数函数”。
论文用数据展示了 AI 能力的指数级增长:
|
|
|
|---|---|
|
|
|
|
|
|
|
|
|
这意味着什么?
AI 能力每 7 个月翻倍,相当于年增长率超过 200%——每年能力提升 3 倍以上。
按这个趋势外推:
-
• 6 年内,AI 系统能力将是今天的 1000 倍以上 -
• 到 2030 年,AI 能力将是 GPT-4 的约 5000 倍,GPT-5 的 200 倍
论文中的预测图显示:
AI 能力增长预测(以 GPT-4 为基准)2024: 1x (GPT-4)2025: 3x (GPT-5)2026: 9x2027: 27x2028: 81x2029: 243x2030: 729x ≈ 5000x (按任务难度计)
研究者警告:社会和决策者可能严重低估了变革的速度和破坏性。
后增长经济学的解决方案
面对这一 coupled socio-ecological crisis(耦合的社会生态危机),论文提出了基于 post-growth economics(后增长经济学)的政策路线图:
1. 用 satisficing(满意化)替代 optimisation(最优化)
-
• 最优化追求无限增长,满意化追求”足够好” -
• 这与 Simon 的有限理性理论一脉相承
2. 用 Doughnut 框架指导 AI 发展
-
• 使用社会与行星边界的 Doughnut 模型 -
• 确保 AI 发展不突破 planetary boundaries(行星边界)
3. 用 resource caps(资源上限)遏制系统性反弹
-
• AI 效率提升可能导致 rebound effect(反弹效应) -
• 资源上限可以防止效率提升被消耗增长抵消
4. 将 AI 作为 commons(公共物品)治理
-
• 推动治理和商业改革 -
• 优先发展 tool-like autonomy-enhancing systems(工具型增强自主性系统) -
• 限制 agentic AI(代理型 AI)的发展
核心政策建议
论文提出了具体的 post-growth policy roadmap for AI:
|
|
|
|---|---|
| 治理改革 |
|
| 发展目标 |
|
| 技术路线 |
|
| 资源约束 |
|
| 经济理论 |
|
为什么 AGI 需要新的经济理论?
论文最后指出:AGI 的发展需要新的经济理论和模型,而后增长学术为此提供了坚实基础。
传统经济学假设:
-
• 经济主体是理性的 -
• 增长是无限的 -
• 技术是中性的
但在 AGI 时代,这些假设都可能失效:
-
• AGI 可能是超级理性的,但其目标函数可能与人类福祉不一致 -
• 指数级增长在有限行星上不可持续 -
• 技术本身嵌入了开发它的经济体系的价值取向
经管启示
这项研究对经管领域有三个重要启示:
1. 企业战略层面
企业在部署 AI 时,不应仅考虑效率提升和成本降低,还需要评估:
-
• AI 系统是否与员工福祉对齐 -
• 是否会导致 rebound effect(如效率提升导致总消耗增加) -
• 是否符合 planetary boundaries 约束
2. 政策制定层面
政府在制定 AI 政策时,需要:
-
• 将 AI 发展与福祉指标挂钩,而非 GDP 增长 -
• 建立 AI 资源使用上限(如算力、能源) -
• 优先支持增强人类能力的 AI 应用
3. 学术研究层面
经管学者需要:
-
• 发展后增长时代的经济理论 -
• 研究 AI 与可持续发展的耦合关系 -
• 探索 AI 作为公共物品的治理模式
结语
这篇论文的核心贡献在于将 AI 安全讨论从纯技术层面扩展到了经济制度层面。
研究者的警告值得所有人深思:如果我们在一个没有对齐人类福祉的经济体系中开发 AGI,那么我们训练的可能不是服务于人类的智能,而是服务于增长的智能——而这个增长目标的代价,可能是人类本身。
后增长经济学提供的不是反技术立场,而是选择性、情境敏感、民主治理的技术采用框架。在这个框架下,AI 可以成为增强人类能力、提升福祉、保护环境的工具,而不是无限增长逻辑的执行者。
论文信息
-
• 标题: The economic alignment problem of artificial intelligence -
• 作者: Daniel W. O’Neill 等(巴塞罗那大学、利兹大学、苏塞克斯大学) -
• arXiv: 2602.21843v2 -
• 日期: 2026 年 2 月 25 日 -
• 分类: econ.GN(一般经济学)、cs.CY(计算机与社会) -
• PDF: 25 页,约 86,000 字符
本文解读基于 arXiv 预印本,仅供参考。
夜雨聆风