
北海
OpenClaw这头“吞金兽”让我陷入了沉思——它消耗Token的方式,像极了一个贪婪的年轻人,似乎要把整个互联网都吞进肚子里。
一次简单的对话,可能就要烧掉几万的token。很多人说这是浪费,是技术不成熟的表现。
但我越看越觉得,这背后藏着一个关于“智慧”的真相。
OpenClaw为什么这么“能吃”?答案其实很朴素——它想记住一切。
你看它的运行机制:每次对话,它都会把上下文信息整理一遍。几千Token起步,随着对话深入,可能飙到几万。再加上那套庞大的“行为说明书”系统,初始负载就是一两万Token。如果你开启深度推理模式,它还会在后台默默思考,产生大量你看不见但得买单的Token。
这听起来很笨,对吗?
但仔细想想,这不就是人类专家的思维方式吗?一个真正的专家在面对复杂问题时,会调动自己全部的相关经验,在大脑里把所有信息过一遍,然后才给出判断。区别在于,我们的大脑进化出了高效的记忆提取机制,而AI还在用“蛮力”——把整座图书馆扛在肩上,然后从中找一句话。
最近行业里有个趋势很值得关注——上下文窗口正在急速扩大。
DeepSeek的网页端已经支持100万Token。另外,还强化的网络搜索功能。原来你能看到搜索10个网页,现在,搜索量到达了数十个网页。这就是给它的回答,大大的增加了上下文的长度。
打个比方。以前的AI像是透过一根吸管看世界,每次只能看到一小块,所以很容易产生“幻觉”——你问它大象长什么样,它摸到尾巴就说像绳子。现在有了百万级窗口,它终于能退后几步,看到大象的全貌了。
说到AI的“幻觉”,很多人以为这是技术缺陷,总有一天会被彻底解决。
但我的观察是:幻觉永远不会消失,它只会被更好的“上下文”所约束。
你看现在的做法——超长上下文提供“事实锚点”,让模型在单次推理中有更多参照;联网搜索和RAG(检索增强生成)实现“实时对账”,把幻觉率从2%-3%压到接近0%。
这背后的逻辑是什么?
是让AI从“凭空想象”转向“依据对账”。
我见过一个服装设计案例,AI在生成汉服纹样时,准确率做到了98%。为什么这么高?因为它被喂入了大量东方美学的资料,从敦煌壁画到宋代服饰,从《天水冰山录》到当代设计师作品。这些上下文构成了一个完整的“审美坐标系”,AI只是在这个坐标系里找位置。
AI之所以能在专业领域表现出色,是因为它被训练在庞大的知识背景上进行推理。我们人类也一样。我认识的顶尖投资人,没一个是只懂金融的。有的精通历史,能从王朝兴衰看产业周期;有的痴迷生物学,用进化论理解企业竞争;还有的热爱军事,用战争史推演商业博弈。
他们不是在“跨界”,而是在构建自己的“上下文窗口”。
AI的幻觉源于数据偏差和知识固化,人类也一样。如果你长期处在负面语境中,每天接收的都是焦虑、抱怨、短视的信息,你的“训练集”就会被污染。
这就是“认知幻觉”的可怕之处——它会自我强化,像滚雪球一样越滚越大。你手里拿着锤子,那么眼里到处都在找钉子;你越觉得自己不行,就越能发现自己的无能。
所以我现在有个习惯:定期审视自己的“信息食谱”。
我关注了哪些人?阅读了哪些内容?和哪些朋友交流?这些信息源的质量如何?它们是在拓宽我的上下文,还是在收窄我的视野?
OpenClaw这头“吞金兽”给我的最大启示,恰恰在这里——它不预测未来,它只是努力地、笨拙地、不计成本地,把所有的上下文都装进来,然后在这个基础上给出当下最可靠的判断。
我们普通人做不到这样,但我们可以学它的方法论:
甄别自己的数据质量,构建分层记忆系统,定期压缩复盘,用思维链自我纠偏。
这不是让我们变成AI,而是让我们在AI时代,成为一个更好的“人类”——一个有上下文宽度、有判断深度、有认知清醒的人。
我们得把自己的“上下文”经营好,让自己配得上那个时代。
而这,恰恰是我们每个人都能努力做到的。
如果您觉得文章还不错,请点个赞、点推荐哈!感谢支持!

夜雨聆风