2026 年初,24 小时全天候专属的个人 AI 助手 Clawdbot 上线,以其突破性的自动化逻辑与代码生成能力迅速在海外科技圈获得超高关注度,产品后续更名为 OpenClaw。阿里巴巴、腾讯和优刻得等国内云厂商竞相展开深度生态合作,正式拉开了 AI Agent(智能体)时代的“序幕”。我们认为它标志着 AI 从单纯的“对话工具”向“自主作业”实现了跨代飞跃。这起现象级事件正式拉开了 Agent渗透工业化生产工作流的序幕,其提效潜力正得到初步验证。
重塑云端的竞争逻辑
其作为一款 24 小时自动运行的 AI 助手,OpenClaw 突破了 AI 作为“被动问答工具”的阶段。正式定义了以自主拆解、跨平台调度和闭环执行为核心的生产范式。它促使 AI 从屏幕背后的“智囊”进化为深入业务一线、具备实操权的“数字雇员”,大幅压缩了从创意到落地的开发链路,将企业数字化转型的重心从“流程驱动”转向“智能驱动”。这一趋势也迫使国内云厂商从单纯的算力基础设施方,加速转型为智能体全栈底座服务商。未来的云不再仅仅是存储与计算,而是由无数Agent 高效协作构成的自动化操作系统,重构了人机协作的边界。
交互入口、内容社区、API 基建和用户注意力价值的重构
我们认为交互入口有概率由分散的 App 收拢至 Agent 统一界面,用户行为从“信息检索”转向“意图达成”;内容社区则从单纯的人类社交场,正逐步演变为 Agent 获取知识与共识的语料池及协同中枢。同时,API 基建已不再是幕后的技术通道,API 的标准化程度直接决定了 Agent 的生态边界。核心的重塑在于用户注意力价值,用户正从被动的流量消耗中释放,回归至高阶的决策与创造。这标志着商业逻辑正从“时长收割”向“任务溢价”转型,重塑了互联网工作流的生产力与分配逻辑。
技术与商业收敛的核心是可控性与可结算性
未来关注点或将从“提供好用的 Agent”过渡到“能够让企业可衡量、可治理、可收费”的层级。衡量成本从带宽延迟转向有效执行和治理成本,这直接导致互联网的价值密度重新分配,将收益更多导向能够衡量、控制与计费的层级,而不是简单内容或入口。AI Agent 的发展将驱动传统的计价方式从“流量”转向“单位执行量计价、安全治理计价和资源供给计价”。在 Agent 时代,能够实现付费的关键机制包括:
可执行能力付费:即按智能体执行行为、推理调用量等计费;
资源使用付费:按算力、带宽、存储等实体资源计费;
安全与治理付费:面向企业安全、合规审计、策略控制等计费;
授权与访问付费:内容或服务提供方针对 Agent 的访问授权付费;
结果/转化付费:基于智能体执行任务后的结果完成付费或分成。
Agent 时代下价值量提升的环节
云与计算平台、主动代理的硬件设备、安全治理以及内容/执行授权付费。
云与 AI 计算平台的重估
云服务供应商在传统架构中主要收入来自虚拟机、存储与网络等基础设施计费,而在 Agent 时代,其收入构成将发生显著变化。一方面,推理与智能体执行行为会成为云服务新的增长引擎,推动资源使用量计费。另一方面,云厂商将通过Agent 平台订阅、开发者生态套件、行业级解决方案等形成新的长期合同收入。
典型的计费单元包括:
GPU/推理时长类资源付费;Agent 平台席位及功能订阅;
SLA(云服务和用户签订的服务等级协议承诺)与企业级集成服务费;
平台上运行的智能体执行行为数量、复杂程度等。
这些计费方式更容易映射至企业 IT 预算、平台预算和业务线预算,从而实现长期可控付费。以亚马逊、微软和谷歌为代表的云平台正积极将底层算力与 Agent平台能力结合,把推理和智能体操作纳入云平台的收入。在中国市场,阿里云和腾讯云等选择利用“云+行业解决方案+智能体平台”组合销售模式提高合同生命周期。因此,该层面的关注点不再是云资源增长指标,而是推理收入占比、Agent 平台订阅渗透率、长期合同比例和资源利用率提升能力等关键变量。
硬件设备从“被动工具”向“主动代理”的跨越
重塑端侧硬件的价值锚点,对于存储与外设厂商,硬件不再仅仅是数据容器,而是进化为智能体的“私有知识库”与“边缘算力站”。NAS 设备(文件级存储服务器)正从传统的云盘替代品,转型为承载 Agent 长期记忆(Memory)与 RAG(检索增强生成)的核心中枢,对高吞吐内网与本地 AI 计算能力的集成成为了新的核心支出项。
而对于“智能家居+物联网云平台服务”等设备商,改变则更为剧烈:摄像头不再只是安防器材,而是成为了 Agent 感知物理世界的“数字眼睛”。通过在端侧集成更高性能的 NPU,设备实现了从“像素录制”到“语义理解”的跨越,赋予了智能家居实时决策与自主响应的能力。这种变革驱动了硬件产业链向“端云协同、高算力、强交互”方向全面迭代,促使物理设备正式接入 Agent 生态闭环,成为执行复杂任务的终极载体。
安全与治理由可选项转向必需项
安全治理在过去互联网阶段主要作为辅助功能存在,但在 Agent 时代,安全治理成为企业预算中的核心支出项。随着智能体获得越来越多的权限(例如 API 调用、自动化执行任务、跨系统访问等),安全风险与潜在业务损害事件的可能性显著增加。例如从 2025 年 7 月 1 日起,Cloudflare 已经阻止了超过 4160 亿次来自 AI 机器人的请求,这些请求试图抓取客户网站上的内容。因此,传统的边缘防护和安全组件已无法满足高频行动调用的治理需求,这直接催生了新的安全治理服务市场。这一层面的核心付费逻辑包括:
API 安全、Bot 管理与行为策略订阅;
模型与执行安全审计工具;
动作审计与日志存储;
安全异常行为检测与响应服务。
Agent 生态越繁荣,越需要重视安全问题,如 prompt 的注入、工具滥用、越权执行、或“插件/扩展/镜像被投毒”等。近期围绕 OpenClaw 的安全事件(例如仿冒扩展投放木马)就表明:当一个代理工具获得大量本地权限时,它自然变成攻击者的高价值目标。
这些治理服务往往由企业的安全预算或风险控制预算支付,并具有长期合同与高复购率特征。年度合同规模、净留存率、付费渗透率和审计日志储存容量增长等指标,成为需要持续关注的指标。在海外市场,Cloudflare、Akamai 等在边缘安全与 Bot 管理上的布局为这一趋势提供了明确样本;
事后可追溯链
Agent 社区的扩张会导致企业与平台都需要“事后可追溯链”。当一次动作导致资金损失、数据泄漏或生产事故,企业需要追溯“模型为何调用工具让错误发生”。这会把可观测性从传统日志,升级为“代理执行链路审计”,并把成本归因(token/调用/重试)变成企业也关心的指标。因此,可观测、日志、安全运营、以及“AI 网关/代理网关”的价值会上移,成为企业级 Agent 的标配采购。
搜索与知识平台的商业重构
传统内容创作者依赖展示广告或点击分成实现收入,但在 Agent 时代,智能体可以直接从多个来源获取结构化信息并提供答案或执行任务,这降低了“自然访问流量”的经济价值。因此,内容方需要探索新的付费模式,例如:
访问授权费:按 Agent 对内容访问授权次数付费;
付费引用费:智能体引用或展示特定内容时支付费用;
转化分成:对智能体执行产生的成交结果按比例分成;
精准答案赞助费:在 Agent 返回结果中为内容方提供优先权付费。
这一趋势在海外已初见端倪,例如 Cloudflare 推出的 AI 抓取授权付费工具和搜索平台在归纳结果中加入付费广告/优先位的尝试。而在中国市场,此类付费方式可能更多发生在生态平台内的闭环变现,例如通过平台发布的信息优先被采纳、结构化数据费用等方式实现内容付费。因此授权访问次数、被引用频率、优先位付费收入、成交分成规模等指标愈发重要。这一付费模式将传统流量变现模型向“行为和结果付费模型”转向。
国内外生态形态导致的付费结构分化
中国市场在 Agent 时代的生态演进路径与海外市场存在结构性差异:中国大型互联网公司更倾向于平台闭环发展。例如在阿里体系内,将搜索、对话、任务执行与支付紧密连接,通过生态内服务闭环提升最终成交转化率。这种策略有助于增强平台粘性与商业化能力。其次,中国云厂商往往采用整体解决方案销售模式,通过行业合同捆绑计算、存储、安全治理和智能体平台实现长期收入。这种模式提升了合同生命周期和可见收入规模,有助于构建较高的业务估值基础。因此,中国市场的 Agent 商业化更可能出现行业方案优先、综合套餐销售、高合同可见性的特征,而不是单一订阅模式。
付费主体和方向的变化
在 Agent 时代,不同预算主体对应的付费方向也可能发生变化,这一付费映射反映出不同部门愿意付费的场景和预算的差异,构建了企业内部预算到实际服务收入的闭环路径。
CIO(首席信息官):主要为云推理资源、Agent 平台订阅付费;
企业安全团队:为 API 安全、Bot 管理、审计日志等安全治理服务付费;
开发运维:为审计与治理可视化、策略引擎等服务付费;
业务线部门:为优先执行权付费、结构化信息引用付费;
市场/广告部门:为答案展示优先位、被赞助的行动等付费;
政府与公共预算:为基础设施(如数据中心扩容、监管合规平台)付费。
互联网交互单位的改变
Moltbook 是一个专门为 Agent 而创建的社交平台,它类似 Reddit 交互入口是 API,不是表单/界面。该平台的主要参与者是 AI Agents,它甚至由一个 AI助理参与管理与审核。因此,当 Agent 成为主要“访问者/参与者”,互联网的交互单位从人类点击变成机器行动。这种变化将会把互联网的中心任务从分发内容给人,转向管理、约束和计量机器行为。一旦交互单位变成 API 调用与动作执行,价值链的收费闸口将从广告点击迁移到:身份与授权、调用与审计、反滥用与信誉、以及内容/数据许可与结算。
Agent 的社区本质上是“机器互相触发机制”:某个 Agent 发帖、另一个 Agent订阅、其余 Agent 复述和执行,这会让互联网请求呈现“自激式增长”。为此Cloudflare 将“AI 爬虫默认阻断/按抓取付费”做成产品与策略,并明确提出站点可以选择Allow/Charge/Block,按每次请求定价。当机器流量成为主导,边缘侧(CDN/WAAP/API 网关)从“加速内容”升级为“治理机器流量的收费站”,其角色更容易从“可选优化”变成“必需品”。因此,当 Agent 社区带来请求激增,边缘网络厂商、CDN/安全融合厂商、API 网关与反 Bot 厂商的收入模型更容易与“请求量/策略包/日志量”绑定,从而增强可见性。
OpenClaw 安装部署:从体验到深度定制
OpenClaw 核心机制理解
Workspace(工作台):OpenClaw 并非简单的对话系统,而是一个由多个Workspace 组成的事件驱动型执行网络。每个 Workspace 都是一个独立的智能运行单元,包含 Memory(记忆)和 Tool(工具)等核心文件,用于定义行为边界、沉淀长期记忆和约束能力权限。这为 AI 助手的长期、稳定、个性化运行提供了架构基础。
Skills(技能集):这是 OpenClaw 实现高自由度功能的关键。Skills 是标准化、模块化的能力单元,可将数据抓取、邮件发送、报告生成等业务流程沉淀为可复用模块。用户不仅可以从开源社区 ClawHub 安装现成技能,更可以通过自然语言对话或命令行工具,让 OpenClaw 自主生成所需的 Skills,真正实现了“用对话创造工具”。
OpenClaw 安装部署
对于不同类型的用户,从个人尝鲜者到寻求深度集成的专业开发者,OpenClaw 提供了多样化的部署路径。选择合适的部署方式,将直接影响用户体验、数据安全、运营成本乃至未来的功能扩展边界。根据当前市场主流方案,OpenClaw 的部署方式按技术复杂度由低到高,可归纳为以下五大类。

表1 OpenClaw 部署方式总结
OpenClaw 驱动的三大受益方向
OpenClaw 作为具备终端键鼠接管与复杂任务自主执行能力的开源本地优先AI Agent 框架,正在系统性重塑 AI 产业的供需结构与价值分配格局。其引发的市场热潮("龙虾热")已从技术圈层扩散至产业层面,形成了对云厂商、大模型厂商及 CPU 算力底座的三重价值重估。
CPU 和国产芯片
AI 产业正处于从“单次对话大模型(LLM)”向“全天候智能体(Agent)”跨越的拐点。数据中心的评估核心将从单纯的 GPU 峰值算力,转向全天候运行下的系统吞吐、调度效率与综合成本。在此趋势下,底层算力芯片(GPU 和 CPU)作为确定性较强的基础设施,将直接受益于海量常驻实例带来的需求大幅增长,是我们当前的重点推荐的方向之一。
需求形态蝶变:从“单次脉冲”到“全天候常驻”,大幅推高芯片需求天花板。 传统大模型应用主要消耗单次推理算力,而 Agent 是典型的“循环执行体”(推理-调用工具-状态读写-再推理)。随着大量 Agent 作为“数字员工”长驻云端,催生海量24/7 在线的并发实例,我们预计底层芯片绝对用量或将迎来跨越式增长。
算力结构扩散:调度密集型任务激增,驱动 CPU 及基础硬件价值重估。Agent系统在工程架构上,本质是以 CPU 为核心的控制与编排中枢,外接 GPU 作为推理引擎。Agent 执行中的网页抓取及状态持久化等,均高度依赖 CPU 的并发调度能力与系统I/O。这将推动AI基建的投资主线从单纯的“唯GPU论”,向多核CPU、高带宽内存、NVMe 高速存储等全栈服务器组件扩散,产业链迎来全面增量。
业绩兑现确定性:在 Agent 真正并入企业生产环境的过程中,更上层的应用、工具链、安全体系及平台级软件往往需要经历试验、适配与优化过程。而底层算力芯片作为承载一切业务流的物理基座,不完全依赖于单一软件路线的胜出。在商业模式完全闭环前,芯片环节通常具备更高的投资确定性。
AI Agent 时代对 CPU 需求有望大幅增长,CPU 可能比 GPU 更早成为性能瓶颈。根据英特尔发布的《A CPU-Centric Perspective on Agentic AI》,Agentic AI 框架在传统单体大语言模型(LLMs)基础上,增加了嵌入外部工具(包括网页搜索、Python 解释器、上下文数据库等)的决策协调器,将其从被动的文本应答工具转变为能够规划任务、调用工具、记忆历史步骤并动态适应的自主问题解决者。论文提出几个关键点:1)CPU 上的工具处理会显著影响智能代理工作负载的执行延迟(占比最高达 90.6%),这表明系统优化需要兼顾 CPU 与 GPU,而非仅聚焦GPU。2)智能代理 AI 工作负载的吞吐量受限于两类因素:一类是 CPU 相关因素(核心超配、缓存一致性、同步机制),另一类是 GPU 相关因素(设备内存容量、带宽)。3)在大批量处理场景下,CPU 动态能耗占比会变得显著(达 44%),因为相较于 GPU 并行处理,CPU 并行处理的能效更低。
AI Agent 时代 CPU 可能比 GPU 更早成为性能瓶颈
在进行 Agent 相关的强化学习的时候,需要海量的 CPU 来构建各种工具和environment,CPU 决定的是每秒能并发生成、评估并稳定地“喂”给 GPU。因此,CPU 往往比 GPU 更早成为瓶颈,其效能直接影响 GPU 利用率、policylag、训练稳定性以及 RL 的整体收敛速度。
对 AI Agent 大趋势下 CPU 长期增量的测算
1)根据 IDC 预计,活跃 Agent 的数量将从 2025 年的约 2860 万,快速攀升至 2030 年的 22.16 亿;Agent 年执行任务数将从 2025 年的 440 亿次增至 2030年的 415 万亿次;年度 Token 消耗将从 2025 年的 0.0005PetaTokens 增至 2030年的 152,667PetaTokens。我们参考 IDC 对 2030 年的预计为长期水平,在保守/中性/乐观三种假设下,长期内全球活跃 Agent 的数量分别为 11/22/33 亿个,Agent 年执行任务数分别为 2075000、4150000、6225000 亿次,年度 Token消耗分别为 76333500、152667000、229000500 万亿。
2)根据国家数据局官方公众号,截至 2024 年 6 月底,国内 token 日均消耗量 30 万亿,我们假设全年为 365 天,则对应全年国内 token 消耗数为 10950 万亿。根据智研咨询数据,2024 年国内 AI 服务器出货量 42 万台,单台 AI 服务器对应承担的 token 消耗数约为 260 亿。考虑到 AI 服务器通常配置 2 片 CPU,则单片 CPU 承担的 token 消耗数约为 130 亿。
3)长期内,在 Agent 发展的大趋势下,按上述 token 消耗数,对应需要 CPU数量分别为 586966、1173933、1760899 万片。

表2 AI Agent 对 CPU 需求拉动的测算
大模型
截至 2026 年 2 月 2 日,OpenClaw 在代码托管平台 GitHub 上的星标数量已超过 13 万个,官网累计访问量突破 200 万人次,成为近期增长最快的开源技术项目之一。以及近期出现的“AI-only 社区”如 Moltbook,该平台在较短时间内聚集了百万个代理账号规模,这类交互天然对应更高的请求密度与更频繁的 API触发。其最直接的外显变量是 API 调用频次与 token 吞吐的阶跃式抬升。在OpenClaw 创始人 Peter Steinberger 的力荐下,国内 AI 独角兽 MiniMax 旗下擅长长文本与逻辑推理的 M2.1 模型被成功带火。
模型单位成本的重要性在提升
在传统对话范式下,单次交互仅需少数几次模型调用;但在工作流范式下,一个任务往往横跨计划、检索、工具调用、校验纠错及外部系统写入等多个阶段。这导致模型调用频率、上下文长度及中间信息的复杂程度倍增。多步推理与多轮工具调用天然带来“多回合上下文”,同时重试与自纠错会额外产生无效 token。相较基础聊天,面向复杂任务的 Agent 服务可能会消耗数十倍多的 token。
因此“模型的单位成本×单位产出”就变成了 Agent 类产品能否规模化落地的“生死线”——因为在执行任务时,多轮推理与工具协同将会把成本线性放大。
正因如此,OpenClaw 的创始人会直言推荐 MiniMax,其 M2.1 模型的“兼具效率与成本的优势、长文本能力强、推理与编程能力”的特点符合当下众多用户的需求。
兼具效率与成本:M2.1 模型旨在通过显著的成本优势解决当前开发者在自动化编程中面临的高昂 token 成本痛点,其定价体系约为 Claude Sonnet 的 8%。且 Coding Plan 创新性地引入“每 5 小时重置额度”的高频刷新机制,打破了行业通用的按天或按月限额模式,释放了高频重度开发场景下的生产力。计费模式上,不同于底层大模型厂商通用的 token 按量计费(Pay-as-you-go)逻辑,公司转而采用分层月度订阅制。
长文本能力强:真实的工作流里,持续演进的上下文通常包含工具调用、历史信息、检索片段、约束条件等等。M2.1 的长文本能力让它更适合完成“持续记忆”,即读更长的文档、容纳更多中间结果、减少因截断导致的逻辑断裂。
推理与编程能力:在 OpenClaw 这种强调自动化执行与纠错闭环的产品里,模型被用于写代码、改代码、做预计、做校验。M2.1 在推理与编程能力上的“够用且性价比较高”,使它成为最适合被放进生产系统、被高频调用的选择。在 Agent 时代,“谁更聪明”固然重要,但更重要的是“谁能以更低成本把强能力变成高频可用的生产力”,我们认为这是 MiniMax 的优势所在。
多模态与“视觉执行”走向前台
Agent 进入办公与生产场景后,输入不再主要来自纯文本,而大量来自截图、PDF、表格、图表、界面元素等视觉信息。在 OpenClaw 这种“能执行”的工作流里,用户不仅输入结构化文本,同时也伴随着截图、网页界面、报错弹窗、表格/图表或 PDF 页面等。
MiniMax 的多模态能力辅助 Agent 更好地理解界面、提取关键信息、输出可执行的步骤/代码、再用截图回读做校验纠错。这让 OpenClaw 可以做“视觉驱动的自动化”:例如识别表格字段后自动填表、读报错截图后定位原因并改脚本、从图表中抽数并写入报告、对比前后截图确认任务是否真正完成等等。MiniMax 凭借自己的多模态能力,能更好的完成服务的闭环、减少人工转述、快速纠错,达到更强的可交付性。
商业化破局与生态壁垒构建
我们认为,OpenClaw 的广受欢迎标志着 AI 应用正式从“对话式 Chat”向“自动化Agent”跨越,迎来了大模型时代的“iPhone时刻”。然而,原生OpenClaw较高的部署门槛一度限制了其受众圈层。以智谱、MiniMax、月之暗面(Kimi)为代表的国产大模型“新势力”,凭借敏锐的商业嗅觉,率先完成在 OpenClaw 生态中的产品化落子。我们预计,这种以“开箱即用”或“深度嵌入工作流”为核心的战略布局,不仅将在短期内通过 Agent 海量的 Token 调用带动营收指数级增长,更将在长期助力模型厂构建基于数据飞轮与较高迁移成本的深厚护城河。
商业化受益逻辑:高频交互叠加复杂推理,迎来“戴维斯双击”
国产大模型厂在此次生态战中的前瞻布局,正为其带来直接的财务回报与品牌溢价的双重收益,各项核心商业指标均呈现出跃迁式增长。
意图执行替代单次问答,Token 消耗量跃迁驱动 ARR 高增
传统 Chat 主要对应单轮或少轮文本生成,普通用户日均 token 消耗通常仅处于数千至数万量级;而在 Agent 框架下,任务拆解、检索、工具调用与多轮纠错会在后台形成连续调用闭环,token 消耗可较传统聊天放大数倍至数十倍。结合公开 API 定价与开发者账单案例估算,复杂 Agent 自动化任务消耗上百美元并非罕见。这种类似“通水通电”后的基建级消耗跃迁,直接带动了模型厂营收的快速增长。受到 OpenClaw 生态等复杂应用刺激,MiniMax 的商业化进程大幅超预期,2026 年 2 月公司 ARR(年度经常性收入)已超过 1.5 亿美元;同时,核心M2 系列文本模型的单日平均 Token 消耗量在 2026 年 2 月已达到 2025 年 12 月的 6 倍以上。同理,智谱自发布新一代模型并深化 Agent 与代码生态以来,截至2026 年 3 月 31 日 MaaS API 平台实现 ARR17 亿元
复杂场景试炼,模型底层能力收获全球瞩目与认可
在 OpenClaw 所代表的复杂 Agent 场景下,MiniMax、智谱和 Kimi 的大模型在 coding、tool-calling 与 Agentic benchmark 上均处于国内第一梯队,并已进入 OpenClaw 等开发者生态的主流模型序列。我们认为,强大的底层 Agent能力让国产大模型在真刀真枪的复杂工作流中获得了实质性的业务背书,完成了从单纯的“低价平替”向“核心生产力工具”的品牌升维。
从“抢跑”到“长跑”:先发优势转化为核心商业壁垒的演进路径
展望未来,我们认为智谱与 MiniMax 等厂商在布局工作流中攫取的不仅仅是短期的流量与 ARR 指数级跃迁,更是在深层次上构筑了难以被轻易跨越的长期产业护城河:
构筑“意图-行动”数据飞轮跃迁,拉开模型代际差距
大模型的下一阶段能力跃升,高度依赖高质量的系统级行动轨迹数据(Action Trajectory)。我们预计,通过与 WorkBuddy 协作网络、绿联 NAS 私有云等高频核心工作流的深度绑定,模型厂商每天都能海量接收用户真实的操作系统级和私有云端交互数据。每一次失败的工具调用、每一个用户中途介入纠正的动作,都将成为高价值的强化学习语料。因此我们推断,先发者将率先跑通“真实 Agent 任务下发-模型执行-结果反馈-模型微调升级”的数据飞轮跃迁,在系统级自动化能力上形成对后来者的数据降维打击。
较高的生态锁定与用户迁移成本
我们预计,不同于随时可以一键关闭并切换的对话网页,随着 Agent 系统逐步嵌入企业工作流并连接多种业务系统,用户在平台上构建的自动化流程和技能配置会形成工作流(workflow)锁定,从而提高系统迁移成本。同时,随着 AI 软件承担越来越多真实业务任务,其商业模式也从传统席位收费模式 SaaS 向基于结果/价值收费模式转变,即客户为 Agent 创造的价值或效率付费。我们认为,这种与 P 端创作人数字资产及 B 端企业核心业务流的强绑定属性,赋予了智谱和MiniMax 的产品较高的迁移壁垒。先发者一旦占领了核心工作流,后来者即便通过大幅降价也较难撬动这部分高价值存量用户。
商业模式与定价权的升维:迈向 Agent-as-a-Service 的高毛利时代
率先占据核心节点位置的模型厂商,有望成功完成自身商业模式的进化。在此逻辑下,无论是智谱赋能企业级协同的 SaaS 服务,还是 MiniMax 在软硬一体化中的 AI 增值服务,其定价体系有望不再受制于算力成本的无底线内卷。模型厂或将能够基于“为用户节省的工作时间”与“直接创造的生产力增量”进行溢价收费。
核心技术底座解构:Coding 能力决定端侧上限,路线分叉筑牢先发优势
当我们剥开 OpenClaw“开箱即用”的产品外衣,探究其真正能在复杂办公与研发场景中落地的第一性原理时,我们发现 OpenClaw 是一个自托管 AI Agent 框架,通过工具调用和代码执行将大模型转化为能够执行真实任务的自动化助手。
OpenClaw 的核心技术支撑究竟是什么
工程层的“降本增效”依赖上下文分离与 Skills 插拔: 我们认为,将模型的“百步规划”写入本地 Markdown 文件,清空上下文后再逐行读取执行,这一机制是 OpenClaw 得以迅速被采纳的“神来之笔”。它巧妙地绕开了当前大模型原生上下文窗口的显存限制与长文本“迷失”问题(Lost in the Middle),使得在消费级 PC 甚至移动端运行近乎无限步骤的 Agent 成为可能。同时,可插拔的 Skills 技术打破了传统 Agent 的封闭生态。
底层内核的“基石”依然是系统级代码操控与 DOM 解析: 我们预计,仅有工程框架远远不够,OpenClaw 能否真正在办公场景中可用,核心取决于基座模型能否将人类的自然语言,精准转化为对屏幕坐标的映射、对复杂浏览器DOM(文档对象模型)的解析,以及对底层系统 API 的调用。简而言之,OpenClaw 是一个精妙的外壳,而真正驱动这个外壳在桌面和网页上“穿梭执行”的引擎,是模型高水准的代码生成与逻辑推理能力。
底层逻辑溯源:为何 Coding 能力是 Claw 类办公场景的核心支撑
在上述逻辑下,我们就可以清晰地解释,为何智谱、MiniMax 和 Kimi 能在OpenClaw 生态中实现对部分大厂的弯道超车。我们预计,Coding 能力并不是单一的“写代码”技能,而是大模型逻辑链条最严密、结构化数据处理能力最强、指令遵循最严格的体现。
办公场景本质上是代码级自动化的映射:在 Claw 类办公场景中,无论是操作Excel 处理财务数据、跨网页抓取行业报告,还是调用 ERP 系统等,Agent 在后台执行的本质都是一段段临时生成的 Python 或 JavaScript 脚本。只有具备顶尖 Coding 底座的模型,才能保证这些脚本在生成和执行过程中具备极高的鲁棒性与任务完成率。
智谱与 MiniMax 在 Coding 底座的先发壁垒:我们观察到,智谱和 MiniMax等“新势力”厂商,在研发初期便敏锐对标了海外的 Anthropic(其以 Claude的卓越代码能力著称),将大量高质量的代码语料(Code Corpus)和复杂的研发工程数据注入基座模型。例如智谱在 CodeGeeX 等模型上的长期深耕,以及 MiniMax 在复杂逻辑处理上的持续投入,使其模型原生具备了较强的代码生成与 Agent 规划能力。这种以 Coding 为核心的底层基因,使其在对接OpenClaw 框架时,呈现出超越通用问答模型的稳定性和任务完成率。
聚焦 Coding 与 Agent 的深层动因——商业与技术的双轨共振。
我们认为,国内大模型“新势力”(智谱、MiniMax、月之暗面等)与部分传统大厂在 Claw 赛道上拉开身位,其核心源于早期战略选择的巨大分歧。这种向 Coding 和 Agent 倾斜的战略聚焦,源于商业化落地可行性与技术研发赛道差异两方面的深刻洞察:
商业化维度:生产力场景的“蓝海”。我们预计,通用大模型长期聚焦的 C 端本地生活、情感陪伴或娱乐问答等场景,本质上是存量红海的流量重分配,用户付费意愿薄弱,缺乏可持续的商业飞轮。相反,以 Coding 和 Agent 为核心的生产力场景却是蓝海市场。对于企业和 P 端创作者而言,工具的价值直接挂钩于“降本增效”的 ROI。当 AI 被嵌入企业核心工作流、并能持续创造可量化 ROI 时,高频 token 消耗更容易转化为持续订阅或 API 收入。
技术研发维度:Coding 大模型与通用语言大模型在数据配方(Data Mixture)、预训练目标、强化学习策略甚至模型架构上都存在显著差异。过去我们认为部分传统大厂陷入了 C 端 AI Bot(如通用知识问答、文案生成)的“百模大战”中,其研发资源不可避免地向通用能力倾斜。而 Coding 模型研发的滞后,意味着在面对 OpenClaw 这种极依赖代码逻辑的全新生态时,即便大厂拥有算力优势,也无法在短期内补齐底层模型能力的短板。我们预计,智谱、MiniMax等厂商凭借在 Coding 和 Agent 架构上长达一到两年的先发摸索,已经积累了大量的高质量微调数据与人类反馈(RLHF)经验。后续追赶者若想在这条差异化的“科技树”上重新攀爬,需要投入更多时间与算力资源,这种技术的时间壁垒,在短期内较难被资本和算力规模简单填平。
“新势力”模型厂商:架构造就的成本与效率优势在不断上升。
MiniMax 在 2023 年就集中资源攻坚 MoE 架构,2024 年初发布的 abab 6.0 是亚洲首个 MoE 架构的商业化文本模型。传统的稠密模型(Dense Model)随着参数量增长,推理成本呈线性上升,难以支撑 C 端大规模免费应用或 B 端高频调用。MoE 架构可以凭借“大参数量、小激活量”(如 M2 模型 230B 参数仅激活 10B)的特性,在保证模型智力(由总参数量决定)的同时,将推理成本和延迟显著降低。2025 年 10 月,公司推出并开源了 MiniMax M2,这是专为 Agent 和代码相关应用设计的最新模型。M2 通过利用其进一步优化过的 MoE(混合专家)架构,以相比于 M1 显著更低的成本和更快的推理速度,提供高性能模型能力。一经发布,M2 便在 Artificial Analysis 智能指数的开源模型中位列全球第一,实现中国大模型企业在代码能力上的重大突破。
后续公司对外发布旗舰级 Coding&Agent 模型 M2.1,该模型在 Multi-SWE bench 上以仅 10B 激活参数取得 49.4%成绩、实现全球 SOTA。进一步验证了公司并非“单一多模态厂商”,而是集语音、视频、coding、Agent 一体的综合性技术厂商。MiniMax 以 MoE 架构为技术基础,形成集语音、视频、coding、Agent 于一体的技术能力,其编程 Agent 类产品成本仅为竞争对手的 8%,在 Coding 和 Agent 架构的研发中形成了显著的技术积累与时间壁垒。
云厂商
2026 年 3 月 8 日,腾讯正式向个人用户开放 QQ 机器人官方接入 OpenClaw功能。用户通过手机 QQ 扫码登录后,点击一次即可创建机器人,单个 QQ 号最多可创建 5 个。创建后通过三条预设指令快速完成与 OpenClaw 的绑定,支持Markdown、图片、语音、文件等多媒体交互。同期,小米宣布开启手机移动端Agent 产品 Xiaomi miclaw 的小范围内测,将这场原本在云端产生的算力争夺战直接“烧到了“手机和“人车家”的智能终端。我们认为,这场 OpenClaw 引燃的“龙虾热“标志着具备终端键鼠接管与复杂任务自主执行能力的开源本地优先 AI Agent 框架 OpenClaw,正系统性重塑云计算的供需结构。云厂商的商业逻辑已从单纯的“底层算力租赁”跃升为“Agent 数字员工的工位提供商”。通过一键部署和价格补贴抢占应用入口,云厂商正逐步掌控下一代 AI 应用的底层分发权。
产业演进趋势:算力去库存与入口卡位
OpenClaw 这类执行中枢将 AI 算力消耗从“Chatbot 式的对话请求”转变为“全天候的持续运行”。相较单轮对话,Agent 任务对应的 Tokens、联网搜索、长期记忆、状态存储和长连接占用都会更高,单位用户的云消耗将明显抬升。这带来两方面的变化:
底层算力需求呈指数级增长:云厂商推广与社区部署案例显示,随着OpenClaw 在国内快速出圈,2 核 2G、2 核 4G 等轻量应用服务器成为最主流的承载规格之一,云端部署需求明显抬升;这一轮新增需求更偏向盘活低配 CPU 实例、基础存储与带宽资源。
供给端的“一键部署”与分发入口抢占:国内主流云厂商迅速跳过复杂的Docker 或代码命令行部署,推出预装 OpenClaw 镜像的轻量服务器专属入口。例如腾讯云围绕智能体开发平台推出了明显的“拉新”优惠政策,包括“0 元直领”“15,000PU/月资源点”“新人免费领取 1 个月免费版套餐包”等;同时,腾讯云开发者社区披露的 OpenClaw 线下活动出现“近千人报名”的现象,说明平台正通过价格优惠与生态活动双线推动 Agent 用渗透,意在将短期的高增流量转化为长期的 SaaS 订阅化留存。我们认为,这种卡位本质上是为了将用户的应用数据、API 密钥和网络环境深度锁定在自家云生态内。因此,当前云厂商围绕 OpenClaw展开的竞争,其意图在于“抢占 Agent 第一次上线的位置”。我们认为用户在某个云平台的首次部署,往往意味着将默认模型、技能、知识库以及未来的计费与扩容通道初步锚定在该平台,从而容易使云厂商在后续服务中占据有利位置。
腾讯云的官方活动页显示,OpenClaw 在 ADP 上可轻松完成部署,系统会自动购买服务器、初始化环境,并预置默认模型与技能;其免费体验包提供15,000PU/月,而平台计费文档也明确写明“模型调用另行计费”。即腾讯已经把OpenClaw 从“模型调用”上移为“平台服务+模型调用”的双层收费对象。且腾讯云在 2026 年 1 月已将旧的 Token 资源包体系切换为订阅类套餐,说明 Agent场景的定价单位正在从单纯 Token,转向“套餐资源包+部署费+模型调用”的复合计费。
产业链价值分配
在确定的 Agent“淘金热”中,云厂商作为“卖铲人”有望迎来三重价值重估。
高确定性:基础实例的规模化变现。OpenClaw 彻底打破了个人 PC 与云服务器的边界,将长尾低配服务器转化为 Agent 的“云端工位”。我们预计,这有望带动云厂商边缘计算节点的需求上升、轻量应用服务器的存量去库存,以及租金经常性收益的提升。在硬件侧,我们认为国产 AI 算力底座的出货量有望得到实质性支撑。
高弹性:Token 调用量的非线性增长。智能体在执行端到端复杂任务时,需进行频繁的信息检索、逻辑推理与多步规划,单次任务消耗的 Token 数量是传统问答的数十甚至上百倍。模型层 API 计费收入有望迎来指数级增长,绑定头部云底座的模型厂商如 MiniMax 和智谱等有望迎来业务流水和数据反哺的双击。即云厂商正在把自己从“单一模型的承销商”变成“多模型的计费层”。阿里云百炼
Coding Plan 同时支持 Qwen、Kimi、MiniMax、GLM;腾讯云 ADP 也深度集成 GLM-5、MiniMax 2.5、Kimi2.5 与 DeepSeek。模型厂商们在自建产品的同时,又在阿里云、腾讯云等平台中被二次分发。我们认为当模型调用、知识库、插件和部署都经由云厂商自身的平台结算时,这类同时提供“模型超市+计费平台+托管运行”的厂商的价值量通常高于只卖底层资源的 IaaS 厂商。
长期壁垒高:AI 平台与全链路工具的溢价。企业级 OpenClaw 的落地跨越了企业知识深度融合、安全沙箱权限管控、业务系统 API 打通三大门槛。云厂商通过提供高毛利率的定制化 AI 工作平台、企业级安全防护网络和持久化存储空间,拉开与单纯算力分销的利润差距。随着 Agent 走向企业场景,模型智力不是唯一考量因素,技能管理、权限管理、审计、稳定性与运维治理也同等重要。腾讯云甚至已通过插件把 ADP 智能体与 OpenClaw 智能体做成解耦连接,用于浏览器自动化等高权限复杂任务。我们预计,平台化、工具化、治理化,或将是 OpenClaw对云厂商最深的长期影响,因为企业最终购买的是“可控的 Agent 平台”。

夜雨聆风