2026 年初,Harness 成为 AI 行业最热的关键词。
但同样是谈 Harness,三个玩家的理解完全不同。OpenAI 拿出了 Responses API,Anthropic 拿出了 Managed Agents,LangChain 早就把自己的整个定位建立在 Harness 之上。表面是同一个趋势,内核是三套完全不同的工程哲学。
搞清楚它们的差异,才能理解 Agent 时代的基础设施战争正在往哪个方向走。
先厘清概念:Harness 到底是什么
在比较之前,需要先把这个词说清楚。
Harness 的原始含义是「马具」——用来控制马的工具。如果模型是马,Harness 就是骑手用来控制马的整套装备:缰绳、马鞍、蹬带。
放在 AI 语境里,Harness 要回答三个问题:
AI 在哪里工作? — 沙箱、环境、执行空间 用什么工作? — 工具、文件系统、API 如何验证工作质量? — 检查机制、编排逻辑、边界控制
这三个问题没有标准答案,不同团队给出了完全不同的解法。
OpenAI:用 API 思维做 Harness
OpenAI 的解题思路最简洁:Harness 应该是一个 API 层,而不是一个平台。
Responses API 是 OpenAI 给出的答案。它的核心设计理念是:让开发者自己决定如何组装 Harness,而不是提供一个黑盒托管服务。
具体来说,OpenAI 提供了底层的 agent 能力——沙箱、工具调用、状态管理——但把这些能力以 API 的形式暴露出来,让开发者可以自由组合。Harness 的逻辑由开发者自己写,OpenAI 只负责提供可靠的执行环境和模型能力。
这种思路的优势是灵活性。对于已经有自己基础设施的团队来说,Responses API 是一个可以嵌入现有系统的组件,而不是一整套需要迁移的托管服务。
但劣势也很明显:灵活性意味着复杂性。当 Harness 需要处理沙箱、权限、追踪这些基础设施工作时,OpenAI 把这些留给了开发者自己。对于想快速跑通生产级 Agent 的团队来说,这仍然是相当高的门槛。
OpenAI 的核心赌注是:未来的 Harness 会走向标准化,而标准应该由开发者自己定义,不是平台强加。
Anthropic:做云厂商做的事,但跑的是 Agent
Anthropic 的解题思路和 OpenAI 完全相反:Harness 应该是一个托管平台,而不是一系列 API。
Claude Managed Agents 的设计理念是:开发者定义 Agent 的任务、工具和护栏,Anthropic 的基础设施负责运行。沙箱、权限控制、会话持久化、端到端追踪——这些全部由平台处理,开发者不需要接触任何基础设施层面的细节。
这种思路和云厂商提供计算资源的逻辑高度一致。云厂商说:你们不需要自己建机房,服务器和网络我来托管。Anthropic 说:你们不需要自己建 Agent 基础设施,Harness 的编排逻辑我来托管。
定价模式也体现了这个逻辑:除了 token 费用,按会话活跃时间收费,每小时 0.08 美元——这是典型的按运行时长计费,和云主机没有区别。
Anthropic 的赌注是:未来的 Harness 会走向托管化,而平台的控制权应该掌握在模型提供商手里。
LangChain:从工具链出发,倒推 Harness
LangChain 的解题思路最特殊:Harness 不是产品,而是整个技术栈的组织原则。
LangChain 从诞生第一天起就在做 Harness 相关的工作,只不过从来不叫这个名字。LangGraph 做编排逻辑,LangSmith 做追踪和调试,LangServe 做部署——这些都是 Harness 的组成部分。LangChain 的逻辑是:与其做一个大一统的 Harness 产品,不如把 Harness 拆解成一套工具链,让开发者按需组合。
LangChain 工程师 Vivek Trivedi 提出的公式 Agent = Model + Harness,本质上是这个思路的理论化:模型提供智能,Harness 让智能可以被实际使用,而 Harness 本身应该是一组可拆卸、可组合的工具,而不是一个黑盒平台。
这种思路的优势是开发体验:对于熟悉 LangChain 生态的团队来说,接入成本很低,而且可以渐进式地引入不同组件。
劣势也是显然的:工具链的复杂度会累积。当一个项目用到 LangGraph 做编排、LangSmith 做追踪、LangServe 做部署,外加各种第三方工具时,整个系统的维护成本和调试难度会快速上升。
LangChain 的赌注是:未来的 Harness 会走向碎片化,而工具链的互操作性会比大一统平台更有价值。
三种思路,指向三个不同的未来
把这三种思路放在一起看,核心分歧其实只有一个问题:Harness 的控制权应该在哪里?
OpenAI 选择把控制权交给开发者。这是经典的 API 思维——平台提供原子能力,用户自己组合。好处是灵活,坏处是门槛高。
Anthropic 选择把控制权交给平台。这是云服务的思维——平台提供完整托管,用户只管用。好处是门槛低,坏处是灵活性受限。
LangChain 选择把控制权分散到工具链里。这是开源生态的思路——每个工具独立演进,通过标准接口互联。好处是可定制,坏处是复杂度需要用户自己管理。
这三种选择没有绝对的对错。不同的团队规模、不同的技术成熟度、不同的场景需求,会决定哪条路更合适。
一个正在形成的事实
尽管三家的思路不同,但有一点是相同的:都在往 Agent 基础设施这个方向投入重兵。
OpenAI 发布了 Responses API,Anthropic 发布了 Managed Agents,LangChain 在持续完善工具链。背后的共识是:模型能力已经足够强,下一个竞争高地是让模型真正跑起来的那个「壳」。
谁拿下这个「壳」,谁就成为 Agent 时代的「自来水公司」——不是卖水(模型),而是卖水管( Harness)。
这场战争,才刚开始。
夜雨聆风