AI—AGI
AI到AGI,是最终发展的结果,不是新的算法结构,但在目前LLM语言模型为准的叙事中,要实现AGI仍缺乏足够多且更新颖和智能的范式出现。
-
什么是范式?
范式 = 当前被广泛接受的”做事方式”,包含它背后的假设、工具和评价标准。范式转移意味着这套框架被更优的框架整体替换,而非修补。当你看到”范式转变”(paradigm shift)这个说法时,通常意味着:不只是技术改进,而是底层思路的根本性颠覆。当前的LLM大语言模型本质上仍是token预测范式——把一切压缩成序列,预测下一个,在利用“机械学习”不断训练,达到足够的智能(参考之前《人工智能的本质》)。但缺陷就是LLM是统计关联,不是因果理解。它知道”火会烫人”,但不理解物理因果链。这是核心缺口。
-
缺乏持续学习能力
LLM训练结束后就”冻结”了,无法像人一样从经历中持续更新。
-
缺乏主动探索与目标驱动
人类智能是有欲望、有好奇心、主动与环境互动的。LLM本质上是被动响应。
-
缺乏身体与物理世界的接地(Grounding)
语言的意义最终根植于感知和行动。没有身体经验,符号可能永远是”悬空的”。
-
缺乏高效的少样本推理范式
人类看一次就能学会很多事,LLM需要海量数据。
LLM的范式是:大规模语言建模 → 涌现理解能力
这个范式的天花板可能是:它让AI”像人说话”,但未必让AI”像人思考”
真正通向AGI可能需要的新范式,不只是增加模态,而是:
-
从预测文本 → 转向建模世界 -
从被动问答 → 转向主动目标追求 -
从静态训练 → 转向持续在线学习
夜雨聆风