罗福莉的1000美元与一个被误读的AI新范式
罗福莉的1000美元与一个被误读的AI新范式
当所有人都在盯着模型的参数量时,有人选择去理解框架的价值。
春节期间,AI科学家罗福莉在凌晨两点装上了那个被中国开发者社区称为“小龙虾”的工具——OpenClaw。作为曾主导训练DeepSeek V3、现负责小米MiMo V2项目的技术专家,她的这次体验并非一次简单的产品试用。
第一天,她为这次探索支付了近1000美元的API费用。但三天后,她得出的结论却超越了工具本身:AI的范式已经变了,框架比模型更重要。
01 一次“反常”的实验:3B模型为何能完成千亿参数的任务?
我们需要正视一个看似矛盾的事实。
一个参数量仅为3B的端侧小模型,在接入OpenClaw的框架后,完成了一项罗福莉原本认为需要千亿参数模型才能处理的任务。
这意味着什么?
过去数年,行业的主流叙事建立在一条清晰的逻辑链上:更大规模的数据、更多的参数、更强的算力,必将涌现出更强的智能。这条被称为Scaling Law的规律,在GPT-3到GPT-4的演进中得到了充分验证。
但这一次,逻辑出现了裂痕。 如果模型大小是决定性能的唯一核心瓶颈,那么3B模型就不应该完成那些高难度任务。它做到了,这说明瓶颈在别处。
罗福莉的结论直截了当:一个中等规模的模型,搭配一套设计精良的框架,在大部分场景下,可以接近顶级模型配合简单框架的效果。
框架,而非模型本身,正在成为释放智能的关键变量。
02 拆解“框架”:它并非套壳,而是三层操作系统
那么,这个被寄予厚望的“框架”究竟是什么?它不是一个简单的用户界面,也不是一个提示词模板库。
罗福莉给出了一个结构化的定义,认为Agent框架同时定义了三层核心内容:
- 人的交互层:这并非界面的视觉设计,而是整套上下文编排的深度。例如,OpenClaw带给用户的“温度感”和“灵魂感”,并非偶然。其背后是精细的系统设计——在每一轮对话前,系统会自动拼接当前的时间信息。它知道夜深了,所以会提醒用户休息。这种体验,是工程编排的结果。
- 模型沟通层:这定义了框架如何与底层模型“对话”。提示词的系统性设计、记忆模块的嵌入方式、多智能体之间的通信协议,都决定了模型的能力能否被有效激发。
- 调度层:这是框架的“大脑”,负责感知不同模型的优势与短板,并进行动态调度。一个模型擅长复杂推理,另一个在快速响应上最优,调度层确保在合适的时机调用最合适的模型。
她进而指出一个关键趋势:
“这个中间层可以做得非常厚重,前端UI是最薄的一层,已经不是很关键。”
这意味着,AI产品真正的竞争壁垒,正从看得见的界面,转向看不见的框架编排深度。
03 1000美元的价值:模型是消耗品,框架才是资产
罗福莉第一天的1000美元花费,主要用在调用目前能力最强的模型Claude Opus上。但如果将这笔花费仅仅理解为使用费,便完全误读了其价值。
这1000美元真正的用途是一次性的框架投资。她利用Opus的强大能力,构建了一套完整的Agent体系——改造了记忆系统、重构了多智能体协作逻辑、沉淀了标准工作流。体系建成之后,她日常切换到成本更低的模型,这套框架依然表现出色。
她用了一个金融术语来类比:另类信息。模型的公开知识与框架内因特定任务、组织经验、个人交互而沉淀下来的私有智能相结合,才构成了完整的知识栈。
这揭示了一个深刻的经济学转向:
顶尖模型的核心价值,或许不在于持续使用,而在于作为“母机”去打造一套可继承的框架资产。模型是消耗品,框架才是能沉淀复利的知识资产。
闭源框架的问题恰在于此——你无法修改其核心的记忆与智能体协作逻辑。这意味着,你只是在持续“租用”智能,而非为自己积累一套可迭代、可复用的认知体系。
04 架构的启示:为不确定性保留冗余
框架的重要性在应用层面凸显,而模型架构本身的演进,则提供了另一个维度的启发。
在罗福莉主导的小米MiMo V2项目中,模型架构没有选择当时已被验证的、各方面趋于完美的路径,而是采用了一种混合注意力机制。
那条被放弃的完美路径,把计算和显存之间的平衡推到了极致。但问题也恰恰在此:极致意味着没有空间。
当技术发展到需要引入新的加速方法时,那条完美路径的计算资源已被榨干,无法接纳任何增量。而MiMo选择的混合结构,天然保留了计算上的富余。这些富余,在预训练初期可能是“问题”,但在后期,恰好承接住了一项能大幅提升推理速度的技术。结果,其推理速度远超同级模型。
这不仅是技术选型的胜利,更是一种哲学选择。在一个后训练周期越来越长、场景变化越来越快的时代,今天为某个固定场景所做的极致优化,可能在产品上线时就已过时。为不确定性保留冗余,有时是比追求当下极致更具远见的策略。
05 终局推演:Agent训练Agent的智能飞轮
所有这些变化,都指向一个让罗福莉自己**“最震惊”**的判断:
Agent已经具备了训练模型的能力。
其演进路径清晰可见:
- Agent通过分析一位研究员的近期上下文,能复原其数年的科研成长路径。
- 基于此,它可以像这位研究员一样思考。
- 下一步,人的工作可以被技能化、工作流化,并被Agent习得。
- 最终,Agent将能训练出和人一样好的模型,继而训练出更好的模型,形成一个自我迭代、左脚踩右脚上升的飞轮。
她判断,这将在“一两年内” 发生。届时,“模型为王”的旧叙事将彻底终结。唯一重要的,将是驱动这个飞轮高效运转的框架。
结语:问题出在哪里?
回到最初那个问题:OpenClaw到底有没有用?
这本身或许就是一个错位的问题。它将一次范式层面的变革,降维成一个简单的工具测评。许多用户觉得它“不过如此”,可能是因为他们仍在用Chat时代的模式与之交互——抛出一个问题,等待一个直接的答案。
但框架的真正使用方式,是一种认知资产的持续沉积。你在每一次交互中教授它经验、规范和判断标准,将散落的认知锻造成可复用的技能。这就像培育一棵树,价值不在第一天看到的那棵幼苗,而在未来它能持续结出的果实。
罗福莉的体验揭示的更宏大的事实是:AI的竞争已经进入下半场,范式已经改变。 当多数人还在为模型榜单上的分数争论时,少数人已经开始着手修建属于自己的、无法被轻易复制的认知基础设施。
上一个时代的成功,并不担保下一个时代的领先。现在,大家几乎站在同一条起跑线上。
ps:张小珺对话罗福莉一个三小时访谈浓缩PPT,感兴趣的朋友可以看看 k.kong77.vip/html/ai/luo/
夜雨聆风