乐于分享
好东西不私藏

AI—AGI

AI—AGI

AI到AGI,是最终发展的结果,不是新的算法结构,但在目前LLM语言模型为准的叙事中,要实现AGI仍缺乏足够多且更新颖和智能的范式出现。

  • 什么是范式?

范式 = 当前被广泛接受的”做事方式”,包含它背后的假设、工具和评价标准。范式转移意味着这套框架被更优的框架整体替换,而非修补。当你看到”范式转变”(paradigm shift)这个说法时,通常意味着:不只是技术改进,而是底层思路的根本性颠覆。当前的LLM大语言模型本质上仍是token预测范式——把一切压缩成序列,预测下一个,在利用“机械学习”不断训练,达到足够的智能(参考之前《人工智能的本质》)。但缺陷就是LLM是统计关联,不是因果理解。它知道”火会烫人”,但不理解物理因果链。这是核心缺口。

  • 缺乏持续学习能力

LLM训练结束后就”冻结”了,无法像人一样从经历中持续更新。

  • 缺乏主动探索与目标驱动

人类智能是有欲望、有好奇心、主动与环境互动的。LLM本质上是被动响应。

  • 缺乏身体与物理世界的接地(Grounding)

语言的意义最终根植于感知和行动。没有身体经验,符号可能永远是”悬空的”。

  • 缺乏高效的少样本推理范式

人类看一次就能学会很多事,LLM需要海量数据。

LLM的范式是:大规模语言建模 → 涌现理解能力

这个范式的天花板可能是:它让AI”像人说话”,但未必让AI”像人思考”

真正通向AGI可能需要的新范式,不只是增加模态,而是:

  • 预测文本 → 转向建模世界
  • 被动问答 → 转向主动目标追求
  • 静态训练 → 转向持续在线学习