乐于分享
好东西不私藏

从ChatGPT到OpenClaw,读懂大模型的Token经济学

从ChatGPT到OpenClaw,读懂大模型的Token经济学
最近看了英伟达CEO黄仁勋的2026年GTC的演讲,我们把英伟达把具体产品和参数先放一边,会发现他反复在讲的,其实是一件事:AI正在从模型阶段,走向系统阶段。
模型能力还在提升,不过重心已经慢慢移洞,AI正在从“会说话”,走向“会做事”,再走向“进入现实世界”。
随之发生变化的,是计算本身的形态:计算从训练阶段溢出到推理阶段,从单次调用变成多轮调度,从云端扩展到本地,再延伸到物理世界。
AI正在从一个“回答问题的工具”,变成一个“持续运行的系统”。
这是一条清晰的行业路线。
大模型的进化,其实是一部Token增长史
如果把过去三年压缩成一条线,大概是这样:
第一阶段:以ChatGPT为代表
Transformer和大规模预训练让语言生成稳定下来,模型可以直接完成表达与归纳。AI第一次像人一样“说话”,完成了表达能力的跃迁。
第二阶段:DeepSeek R1为代表
这一阶段的变化不止是推理能力增强,还叠加了开源模型的爆发。通过强化学习和推理链,模型开始生成中间步骤再得出结果,计算被拉到推理阶段,路径变长、Token消耗显著上升。与此同时,开源模型快速迭代,把推理能力下沉到更广泛的开发者和企业环境中,加速了技术扩散,也让“可控、可部署”的AI成为现实。
第三阶段:Manus、Genspark、Lovable——Agent雏形形成
模型被放进系统中,通过工具调用、任务拆解与多轮执行完成复杂目标。一次请求不再对应一次推理,而是一串调度链条,计算开始在多个模块之间流动。
其实很早之前肖睿老师就判断过:
第四阶段:Claude Code——本地执行能力成熟
模型进入真实环境,直接操作代码、文件和系统接口。上下文从prompt扩展到完整运行环境,推理结果可以立即转化为实际操作,执行与生成开始融合。
第五阶段:OpenClaw——执行系统化
Agent、本地能力与工具生态被整合为持续运行的系统,支持长任务与多阶段反馈。计算不再按“请求”触发,而是以“进程”形式存在,具备连续性与状态。
这条线有一个共同点: 每往前走一步,Token消耗就上一个台阶。
AI正在从“模型竞争”,变成“Token经济”。
  • 推理模型让每个问题消耗更多Token
  • Agent系统会持续调用模型,Token变成“流量”
  • 长任务、多步骤,Token像电一样持续计费
Token的使用量在快速上升。与此同时,Token的单位成本在下降。每百万Token的价格会越来越低,这一点几乎没有悬念。
真正关键的是两条曲线的速度差:
我们判断token成本下降的速度可能赶不上需求增长的速度,因此即便Token更便宜,但每个人用掉的Token却更多。两者叠加在一起,总体支出反而在上升。
这也是为什么Token会越来越像一种基础资源,单位价格持续下降,总体消耗却不断创新高。
Agentic AI是一场系统革命的开端
OpenClaw这类Agentic AI的爆火,因为它刚好踩在了软件进化的拐点上。

传统的软件交互模式是人点击按钮 → 软件执行固定逻辑 → 返回结果。

现在的模式正在重塑为人下达一句话指令 → Agent拆解任务 → 协同调用多个工具、模型与数据源 → 最终交付成果。

这中间的差别是软件从功能集合变成任务执行者。

正如黄仁勋在演讲中描绘的场景,Agent能够查阅资料、编写代码、制定规划、运行模拟、调用API,并具备将复杂问题拆解为多步骤的能力。
它超越了单一模型的范畴,进化成了一个包罗万象的系统,涵盖:
  • 多模型(语言、视觉、语音)
  • 多工具(搜索、数据库、软件接口)
  • 多环境(本地、云、多云)
  • 持续上下文(记忆)
这实质上是在改写软件生态的底层逻辑。以前编写代码等同于定义逻辑;而今构建系统等同于编排能力。
所以你会看到:
  • OpenAI:持续深耕工具调用(function calling),最新GPT-5.4已经原生支持「computer use」,直接能看屏幕、操作鼠标和键盘。
  • Anthropic:重点强化Agent长循环,能安全跑好几天,同时推出Claude Computer Use和多代理协作。
  • 开源社区
    :OpenClaw彻底火了,短短两个月GitHub星标就冲到25w+,成了目前最实用的自托管Agent框架。
NVIDIA给自己的定位是它在做的不是一个Agent产品,而是Agent的基础设施层(NeMo、Blueprint、推理系统等)。
物理AI是AI开始理解“世界”
如果说Agent的舞台仍局限于“数字世界”,那么物理AI则标志着人工智能首次大规模进军现实世界。
两者的难度完全不在同一量级。语言模型只需解析语义,而物理AI必须洞察现实法则:物体遵循质量守恒、物理受力会产生反馈、动作存在必然延迟、世界呈现连续不断的状态。
简而言之:语言模型负责解决逻辑上的“对不对”,物理AI则必须攻克现实中的“能不能做到”。
物理AI需要一种三位一体的结构:
  1. 训练(赋予学习能力)
  2. 推理(执行决策判断)
  3. 模拟(验证现实世界)
这三者缺一不可。由于真实世界的可用数据过于稀缺,AI必须先在“虚拟世界”中完成发育。
基于此,NVIDIA布局了几项极具“工程感”的项目:
  • Omniverse: 构建可高度模拟的数字孪生世界。
  • Cosmos: 专注训练探索现实规律的“世界模型”。
  • Isaac / 自动驾驶平台: 让机器人在仿真环境中率先掌握行动逻辑。
这些布局是先依托算力生成虚拟世界 → 接着在其中孕育智能 → 最终将其部署至现实物理空间。
这条路径一旦彻底跑通,其深远影响将跨越AI行业本身,深度重塑制造业、交通、机器人乃至能源等千行百业。
AI需求远远高于供给
AI需求的膨胀速度,已经远远将算力供给甩在身后。
推理模型带来Token暴涨,Agent引发持续性调用,物理AI则叠加了“模拟+训练+推理”的三重计算负荷。
现在的核心痛点已由“模型的有无”转变为“是否有充足的算力来支撑这些庞大过程的运转”。
这也解释了为何NVIDIA的护城河极难被单点突破。它的版图超越了单一的GPU,进化为一整套庞大的体系:
  • 芯片底层(GPU、CPU、DPU)
  • 系统架构(整机、互联网络、超级计算机)
  • 软件生态(CUDA、AI框架、推理系统)
  • 应用平台(Agent、物理AI、数字孪生)
再向前推进一步,便是“AI工厂”的概念。算力不再仅仅是消耗型资源,它已化身为核心生产力。商业模式也随之跃升,从单纯兜售“工具”,迈向输出完整的“生产能力”。
AI正在变成基础设施
回顾这场演讲,相比于单纯的兴奋,我更强烈地感受到AI带来的巨变就在眼前。
  1. 上半场: 主攻生成(赋予AI“说”的能力)
  2. 中场: 深耕推理与Agent(赋予AI“做”的能力)
  3. 下半场: 决胜物理AI(推动AI全面融入现实世界)
与之呼应的是三条增长曲线Token、系统复杂度和算力需求。
这些因素表明AI正跨越传统的“软件能力”范畴,彻底下沉为社会的“基础设施能力”。
这正是未来十年AI产业的增长空间被定位在“万亿美元”级别的根本逻辑。背后的核心动力在于AI接管的疆域正在急剧扩张:从单纯的信息流,延伸至复杂的工作流,最终触达真实的物理世界本身。
这条线一旦展开,就很难再收回去了。
点击关注,菜单栏获取AI开源资料

往期推荐

手把手教你养一只龙虾🦞(Windows 原生版)

如何在Linux和Windows(WSL环境下)养“龙虾”?OpenClaw超详细教程

手把手教你养一只龙虾🦞(OpenClaw)安装教程AI肖睿团队

「AI肖睿团队」由北京大学博士肖睿老师作为发起人、领头人。输出技术正确、有独立洞察、有落地价值的内容,用开源模式免费传播。

✅不定期分享北京大学内部研讨资料

✅不定期分享产业级落地方案

✅ 深度解析行业趋势

✅ 随时解答你的AI疑惑

关注我们,和10W+AI从业者一起进阶!