乐于分享
好东西不私藏

AI 对齐的经济学真相:为什么增长导向正在将人类推向危险边缘?

AI 对齐的经济学真相:为什么增长导向正在将人类推向危险边缘?

当所有人都在讨论如何让 AI 对齐人类价值观时,一项最新研究指出:如果经济体系本身没有对齐人类福祉,那么在这个体系中开发的 AI 永远不可能真正对齐。

核心论点

2026 年 2 月,巴塞罗那大学、利兹大学等机构的研究者在 arXiv 发表论文 《The economic alignment problem of artificial intelligence》(arXiv:2602.21843v2),提出了一个颠覆性观点:

AI 对齐问题本质上是经济对齐问题。

研究团队指出,当前 AI 安全研究存在一个根本性盲点:如果 prevailing economic system(现行经济体系)本身没有与人类福祉和环境可持续性对齐,那么在这个体系中开发的 AI 系统也不可能与这些目标对齐。

换句话说:在增长导向的经济体系中开发 AGI,相当于训练 AI 将指数级增长作为目标——而这个目标的代价可能是人类本身。

三大风险:安全、社会、环境

论文系统梳理了 AI 发展面临的三类耦合风险:

1. 安全风险

  • • AI 系统已在图像分类、阅读理解、博士级科学问题、视觉推理和竞赛级数学等任务上达到或超过人类平均水平
  • • 2023 年对计算机科学家的调查显示:38% 的专家认为高级 AI 导致人类灭绝等灾难性结果的概率至少为 10%
  • • 关于 AGI 何时实现的预测在不断提前:Metaculus 预测平台的 median prediction 从 2020 年的 2062 年缩短到 2026 年 4 月的 2032 年

2. 社会风险

  • • 权力集中、自动化说服、认知碎片化、民主治理侵蚀
  • • 对福祉影响的 sentiment 呈现两极分化:收入、认知能力、健康领域偏正面;不平等、社会关系、就业领域偏负面

3. 环境风险

  • • 超过 80% 的研究将 AI 对环境的影响描绘为正面
  • • 但大多数研究只关注 AI 如何帮助解决特定环境问题,忽视了 AI 本身可能造成的系统性影响
  • • 这些系统性影响可能对可持续性产生更深远的影响

指数级增长的 AI:人类无法理解的函数

物理学家 Albert Bartlett 有句名言:“人类最大的缺点是无法理解指数函数”

论文用数据展示了 AI 能力的指数级增长:

指标
翻倍时间
前沿 AI 模型训练算力
5-6 个月
解决技术挑战的最小模型尺寸
3 个月减半
模型可完成的任务难度
7 个月翻倍

这意味着什么?

AI 能力每 7 个月翻倍,相当于年增长率超过 200%——每年能力提升 3 倍以上。

按这个趋势外推:

  • • 6 年内,AI 系统能力将是今天的 1000 倍以上
  • • 到 2030 年,AI 能力将是 GPT-4 的约 5000 倍,GPT-5 的 200 倍

论文中的预测图显示:

AI 能力增长预测(以 GPT-4 为基准)2024: 1x (GPT-4)2025: 3x (GPT-5)2026: 9x2027: 27x2028: 81x2029: 243x2030: 729x ≈ 5000x (按任务难度计)

研究者警告:社会和决策者可能严重低估了变革的速度和破坏性

后增长经济学的解决方案

面对这一 coupled socio-ecological crisis(耦合的社会生态危机),论文提出了基于 post-growth economics(后增长经济学)的政策路线图:

1. 用 satisficing(满意化)替代 optimisation(最优化)

  • • 最优化追求无限增长,满意化追求”足够好”
  • • 这与 Simon 的有限理性理论一脉相承

2. 用 Doughnut 框架指导 AI 发展

  • • 使用社会与行星边界的 Doughnut 模型
  • • 确保 AI 发展不突破 planetary boundaries(行星边界)

3. 用 resource caps(资源上限)遏制系统性反弹

  • • AI 效率提升可能导致 rebound effect(反弹效应)
  • • 资源上限可以防止效率提升被消耗增长抵消

4. 将 AI 作为 commons(公共物品)治理

  • • 推动治理和商业改革
  • • 优先发展 tool-like autonomy-enhancing systems(工具型增强自主性系统)
  • • 限制 agentic AI(代理型 AI)的发展

核心政策建议

论文提出了具体的 post-growth policy roadmap for AI:

政策领域
具体措施
治理改革
将 AI 作为全球公共物品治理,建立跨国监管机构
发展目标
用福祉指标替代 GDP 作为 AI 发展的指导目标
技术路线
优先发展增强人类能力的工具型 AI,限制自主代理型 AI
资源约束
对 AI 训练和使用设置能源和资源上限
经济理论
发展 AGI 需要新的经济理论,后增长学术提供坚实基础

为什么 AGI 需要新的经济理论?

论文最后指出:AGI 的发展需要新的经济理论和模型,而后增长学术为此提供了坚实基础。

传统经济学假设:

  • • 经济主体是理性的
  • • 增长是无限的
  • • 技术是中性的

但在 AGI 时代,这些假设都可能失效:

  • • AGI 可能是超级理性的,但其目标函数可能与人类福祉不一致
  • • 指数级增长在有限行星上不可持续
  • • 技术本身嵌入了开发它的经济体系的价值取向

经管启示

这项研究对经管领域有三个重要启示:

1. 企业战略层面

企业在部署 AI 时,不应仅考虑效率提升和成本降低,还需要评估:

  • • AI 系统是否与员工福祉对齐
  • • 是否会导致 rebound effect(如效率提升导致总消耗增加)
  • • 是否符合 planetary boundaries 约束

2. 政策制定层面

政府在制定 AI 政策时,需要:

  • • 将 AI 发展与福祉指标挂钩,而非 GDP 增长
  • • 建立 AI 资源使用上限(如算力、能源)
  • • 优先支持增强人类能力的 AI 应用

3. 学术研究层面

经管学者需要:

  • • 发展后增长时代的经济理论
  • • 研究 AI 与可持续发展的耦合关系
  • • 探索 AI 作为公共物品的治理模式

结语

这篇论文的核心贡献在于将 AI 安全讨论从纯技术层面扩展到了经济制度层面。

研究者的警告值得所有人深思:如果我们在一个没有对齐人类福祉的经济体系中开发 AGI,那么我们训练的可能不是服务于人类的智能,而是服务于增长的智能——而这个增长目标的代价,可能是人类本身。

后增长经济学提供的不是反技术立场,而是选择性、情境敏感、民主治理的技术采用框架。在这个框架下,AI 可以成为增强人类能力、提升福祉、保护环境的工具,而不是无限增长逻辑的执行者。


论文信息

  • • 标题: The economic alignment problem of artificial intelligence
  • • 作者: Daniel W. O’Neill 等(巴塞罗那大学、利兹大学、苏塞克斯大学)
  • • arXiv: 2602.21843v2
  • • 日期: 2026 年 2 月 25 日
  • • 分类: econ.GN(一般经济学)、cs.CY(计算机与社会)
  • • PDF: 25 页,约 86,000 字符

本文解读基于 arXiv 预印本,仅供参考。