从几种“超级人工智能”路径看未来3年AI架构演进之路
?近日,被业界誉为AlphaGo 和 AlphaZero “之父”的原谷歌Deepmind研究员David Silver为自家新公司Ineffable Intelligence在种子以51亿美元估值融资11亿美元引发全球关注。

David Silver是现代人工智能,特别是强化学习(Reinforcement Learning)领域的顶尖专家,他曾是 Google DeepMind 的首席研究科学家和强化学习研究组负责人,在公司工作长达 12 年。他不仅是 2016 年击败李世乭的 AlphaGo 的主导者,也是后续自我对弈并超越人类水准的 AlphaZero 和 MuZero 的核心设计者。
David Silver创办的新公司Ineffable 号称要利用强化学习——一种 AI 系统通过试错而非研究人类生成的示例来进行学习的技术——来创建一个能够不依赖人类数据就能发现知识和技能的“超级学习者”。这正是 Silver 的专业领域。
他主张 AI 发展应从“人类数据时代”迈入“经验时代”,即利用 AI 的自我对抗与经验累积来解决复杂问题(如数学、生物学中的蛋白质折叠),而非仅仅模仿人类。
在 DeepMind 任职期间,Silver 参与开发了通过纯粹从经验中学习(而非喂给人类策略或对局记录)就在国际象棋和围棋中击败职业选手的程序,并在每种游戏中都击败了世界顶尖的计算机程序。其中最著名的是 AlphaZero。
他主持开发的基于人工智能的蛋白质结构预测程序AlphaFold 彻底改变了结构生物学领域,实现了在几分钟内根据氨基酸序列预测高质量的三维结构。解决了困扰科学界50年的“蛋白质折叠”难题,将蛋白质结构预测的精度提升到原子级水平,与实验方法(如X射线晶体学)相媲美。
这一次,他将目光从棋盘和蛋白质转向我们人类的真实世界,希望其开发的超级人工智能能从自身的经验中发现人类没有发现的知识。
过去两年,人工智能的技术路线正在发生一次“范式级分歧”:一边是以OpenAI、Anthropic、Google为代表的大模型(LLM)扩展路径,另一边则是以David Silver、以及Ilya Sutskever推动的“超智能(Superintelligence)原生路径”——强调自我学习、环境交互与长期演化。与此同时,一些更激进的探索(如“Ineffable”类路径)甚至提出:摆脱人类数据与大规模语料,直接构建可自我进化的智能系统。
这三条路径并非简单竞争关系,而是在共同塑造一个更复杂的结论:未来AI不再是“一个模型”,而是一套持续进化的系统架构。
本文将从“超级人工智能”的几种代表性路径出发,结合产业现实,推演未来3年AI架构的具体演进方向,并拆解到技术栈层级。
一、三条路径:AI范式正在分裂
1. 大模型扩展路径:以“人类知识压缩”为核心
当前主流路径的核心逻辑非常清晰:
互联网数据 → 预训练 → 指令对齐 → 推理能力其代表公司包括OpenAI、Anthropic和Google。
这一路径的本质是:将人类已有知识进行统计压缩,通过规模(Scaling Law)获得能力跃迁,通过RLHF实现行为对齐,它的成功毋庸置疑——从代码生成到复杂推理,大模型已经成为“通用认知引擎”。
但问题同样明显:无真实世界经验(no grounding)、泛化能力受限于数据分布、缺乏长期决策能力等。
2. 强化学习路径:从“模仿智能”走向“经验智能”
David Silver提出的核心观点可以概括为:当前AI是“模仿人类”,而不是“成为智能体”。
他所代表的路径强调:自博弈(self-play)、环境交互(environment interaction)和持续学习(continual learning);
典型案例是AlphaZero:
-
不依赖人类棋谱 -
完全通过自我对弈达到超人水平
这一范式的关键在于:智能来源于经验,而非知识本身
但其局限也同样突出:依赖“可模拟环境”、数据效率极低以及扩展到开放世界。
3. 超级智能路径:从一开始就以“AGI/ASI”为目标
SSI由Ilya Sutskever主导,其战略与当前产业明显不同:不追逐短期产品、直接面向“安全的超级智能”强调自我改进与对齐机制。
而“Ineffable”类路径则更激进:去人类数据、去大规模语料和强调“内生智能结构”,这类路径的共同特点是:试图绕过“数据瓶颈”,直接构建智能机制
但目前仍停留在理论或早期探索阶段,并没有实际产品推出。
二、产业背景:为什么分歧在此刻出现?
这场路线分裂并非偶然,而是由三个产业性约束共同驱动。
1. 数据红利正在耗尽
过去10年,AI的核心资源是:
-
互联网文本 -
开源代码 -
图像与视频数据
但现在:
-
高质量数据已接近饱和 -
数据版权与合规成本上升 -
模型出现“数据污染”(self-training循环)
👉 结论:数据不再是无限资源
2. 算力成本进入“边际递减区间”
以NVIDIA GPU为代表的算力体系仍在增长,但:
-
训练成本呈指数级上升 -
推理成本成为商业化瓶颈 -
能效比(performance per watt)成为关键指标
👉 单纯“堆算力”难以持续
3. 应用侧需求发生变化
企业真正需要的不是更会聊天的模型,而是能执行任务的系统、能长期工作的Agent以及能与现实环境交互的智能体。所以
👉 AI正在从“认知工具”走向“生产要素”

三、未来3年AI架构的核心演进方向
基于上述路径与产业约束,一个清晰的架构趋势正在形成:
LLM(知识)+ Agent(行动)+ Memory(记忆)+ Tool(工具)+ RL(学习)+ World Model(理解世界)1. 模型层:从“单体模型”到“多模型系统”
关键演进:
(1)MoE(专家混合)成为主流
-
提升参数规模(万亿级) -
控制推理成本
(2)长上下文能力成为标配
-
10M token级别上下文 -
KV cache优化成为基础设施
(3)多模态原生融合
-
文本、视觉、语音统一建模 -
从“外挂模态”走向“统一token空间”
2. Agent层:AI系统的“操作系统”
未来最大的变化不在模型,而在Agent系统。一个标准Agent架构将包含:
Planner(任务规划)+ Memory(记忆系统)+ Tool Router(工具调用)+ Executor(执行)+ Critic(反馈)这意味着:AI将具备完整任务闭环,而非单次响应能力
3. 训练范式:从离线训练到持续学习
当前范式:Pretrain → SFT → RLHF
未来范式:
Pretrain+ Synthetic Data+ RL(环境交互)+ Online Learning关键变化:
-
Synthetic Data成为主要数据来源 -
RL从“对齐工具”变为“核心机制” -
模型开始持续更新(online learning)
4. 推理层:成本与性能的主战场
未来竞争的关键不再是模型能力,而是:单位token成本下的推理能力
关键技术包括:
-
speculative decoding(推测解码) -
动态模型路由(small → large) -
分布式KV cache
5. 数据层:从“数据集”到“数据引擎”
未来的数据不再是静态资产,而是动态系统:
数据生成 → 过滤 → 训练 → 反馈 → 再生成👉 谁掌握“数据飞轮”,谁掌握护城河
6. World Model:连接AI与现实世界
受David Silver路线影响,未来模型将具备:状态预测能力、因果推理能以及环境模拟能力,将成为:从“语言智能”走向“物理智能”的关键桥梁
四、技术融合:不是替代,而是叠加
一个关键误区是认为:RL会取代LLM或“无数据AI”会颠覆当前体系,但更现实的路径是:
LLM(知识压缩)+ RL(经验学习)+ Agent(执行系统)+ World Model(环境建模)换句话说未来的超级智能,是多范式融合的结果,而非单一路线胜出
五、未来3年的关键变量
1. Agent是否成熟?
如果成熟则AI将成为“数字劳动力”
2. RL效率是否突破
如果突破,则David Silver路线将加速落地
3. World Model是否可行?
如果成立则AI将具备真正的“理解能力”
六、结论:AI正在从“模型时代”走向“系统时代”
从SSI的“安全超智能”,到David Silver的“经验驱动智能”,再到当前以OpenAI为代表的大模型体系,一个清晰的趋势已经浮现:AI的核心不再是“模型有多大”,而是“系统是否闭环”。
未来3年,真正决定胜负的,不是参数规模,而是:
-
是否具备持续学习能力 -
是否能与环境交互 -
是否形成数据与经验的正反馈循环
最终的AI系统,将不再只是回答问题,而是:理解世界、行动于世界,并在世界中不断进化,这才是更像人类的人工智能!
对此大家怎么看?欢迎留言讨论!

夜雨聆风