乐于分享
好东西不私藏

为什么 OpenClaw 又慢又不准?问题可能不在模型

为什么 OpenClaw 又慢又不准?问题可能不在模型

用过 OpenClaw 的人,基本上都踩过同一个坑:慢,答得不准,偶尔还会卡死在那儿不动。第一反应肯定是——这模型是不是太烂了?但我看完今年的英伟达GTC 大会,发现老黄有不同的解读。

过去两年,大家都在堆参数、卷训练、比谁的模型更大更猛,跑分儿更高。逻辑很简单——模型强了,一切都会好。但这次 GTC 传出来一个挺关键的信号:重心从训练转到推理了。训练是一次性的,推理是每天都在发生的。你每次问 AI 一个问题,背后都是一次推理调用。老黄说到 2027 年推理算力可能到 1 万亿美元。这个数字准不准先不管,方向基本定了:接下来烧钱最凶的,是在推理算力上。

话又说回来OpenClaw 为什么这么""?

它可能不是不会想,是很多时候根本拿不到该拿的数据。一个智能体干活其实就三步:听懂你说什么,去翻数据,给你一个答案。现在问题很多时候卡在第二步。你的数据长什么样?一堆 Word 文档、散落的图片视频、各种系统里的记录,加上邮件聊天记录。这些对模型来说,处理起来都很费劲。

数据读取的主流流程是这样的:数据先过 CPU,搬到内存,再交给 GPU,最后才到模型。每一步都有消耗,搬来搬去还容易丢信息。所以你就会看到AI 回答东一块西一块,前后接不上,再不然就开始自己编。

英伟达CUVS 和 CUDF

问题定位清楚了,就能发现这次 GTC 真正有意思的发布功能功能,是让 GPU 能直接读硬盘数据的 CUVS (Vector Search),和 CUDF(Data Fabric)。以前是先把数据搬过来再处理,现在是可以给 GPU直接用。读数据的速度上来了,体验自然跟着变。以前翻箱倒柜找资料,现在东西就搁在手边。模型不一定更聪明,但它终于能实时的看到完整的信息。

有了数据的加持,智能体能力边界也会跟着变。他接下来更可能是帮你查数据、调系统、把一件事从头到尾做完。这才算真正的智能体,不是一个贵一点的搜索框。

由此,我们可以看到 AI行业的变化:从拼训练变成拼推理。OpenClaw 这类智能体开始铺开。AI系统的基础架构从堆算力,过渡到拼网络,现在终于把注意力放到了数据存储上。

过去两年,AI在拼谁更聪明。接下来两三年,AI 的竞争,可能是谁能把数据和推理这条链条打通。