

3月27日,在2026中关村论坛AI开源前沿论坛上,月之暗面创始人杨植麟、智谱华章CEO张鹏、无问芯穹联合创始人兼CEO夏立雪、小米MiMo大模型负责人罗福莉以及香港大学助理教授黄超进行了一场圆桌对话。本场圆桌对话围绕“OpenClaw与AI开源”展开,深入探讨了OpenClaw的崛起与Agent的变革、智谱GLM-4 Turbo模型、推理时代的基础设施挑战、小米在做大模型方面的优势、Agent 技术痛点与生态未来、未来12个月的展望与关键词等话题。
张鹏认为 OpenClaw 提供的是一种可能性,在模型的基础上搭起了一个很牢靠、很方便但是又很灵活的“脚手架”。它让普通人可以方便地使用顶尖模型在编程和 Agent 方面的能力,而不再是程序员或极客的专利。他还指出,未来12个月最大的问题依然是“算力”,需求正在爆发,若算力不足将导致所有技术和创造力无法落地。
夏立雪透露,其公司自1月底开始,每两周 token 量就翻一倍,目前已增长10倍,这种增速如同3G时代手机流量的爆发。现有的云计算基础设施是为程序和人类工程师设计的,而 Agent 能够做到秒到毫秒级别去思考和发起任务。因此需要打造更智慧的“Agentic Infra”,让基础设施本身成为能够自我进化、自我迭代的智能体。
罗福莉认为中国团队在做大模型方面的优势在于如何在有限算力下,通过模型结构创新发挥出最高智能水平。长上下文竞争不仅是显存问题,更是学习算法、长程依赖文本采集的竞争。小米正在探索如何在一兆或十兆 context 下实现极低推理成本和极快速度,从而实现“模型的自迭代”。
黄超梳理了 Agent 的核心痛点:Planning(长程任务规划难)、Memory(信息压缩不准且在 Agent Swarm 场景下管理压力大)以及 Tool Use(高质量 Skill 稀缺且存在恶意注入风险)。他还预判未来很多软件将不再面向人类,而是面向“Agent 原生”(Agent Native)设计的。人类将只去使用让自己快乐的 GUI。
以下是本次圆桌对话的完整实录:
圆桌对话:OpenClaw与AI开源
主持人:杨植麟(月之暗面创始人)
嘉宾:
张鹏(智谱华章CEO)
夏立雪(无问芯穹联合创始人兼CEO)
罗福莉(小米MiMo大模型负责人)
黄超(香港大学助理教授、Nanobot团队负责人)
OpenClaw的崛起与Agent的变革
杨植麟:各位重磅的嘉宾好。我们今天的话题覆盖了不同的层面,从模型层到算力层,再到上面的 Agent层。很高兴今天能和大家一起探讨最近的关键词:开源与 Agent。
第一个问题给到所有人。关于目前最流行的 OpenClaw,大家日常使用 OpenClaw或者类似产品时,觉得最有想象力或者印象深刻的是什么?从技术角度看,如何看待今天 OpenClaw和相关 Agent的演进?我们先从张鹏总这边开始。
张鹏:感谢植麟邀请,也感谢主办方给机会和大家交流。确实我很早就开始自己玩这个 OpenClaw,当时还不叫 OpenClaw,最早叫 ClawBot。自己动手搞,毕竟也是程序员出身,玩这些东西还是有一些自己的体验。我觉得这件事给大家带来的最大突破点在于:它不再是程序员或者极客们的专利。普通人也可以比较方便地使用顶尖模型的这种能力,尤其是在编程和 Agent方面的能力。
所以我到现在为止更愿意将 OpenClaw这个事情称之为一个脚手架(Scaffold)。它提供的是一种可能性,在模型的基础上搭起了一个很牢靠、很方便但是又很灵活的脚手架。大家可以按照自己的意愿去使用底层模型提供的很新奇的东西。原来自己的一些想法受限于不会写代码或者其他技能,今天终于可以通过简单的交流就把它完成。所以这对我来说是一个非常大的冲击,让我重新认识了这件事。
夏立雪:我最开始用 OpenClaw的时候是不太适应的,因为我习惯于这种跟大模型聊天的交互方式。我发现 OpenClaw感觉反应好慢。但我后来意识到一个问题,它和之前的聊天机器人有一个很大的不一样:它其实应该是能帮我完成一个大型任务的一个人。所以我后面开始给它提交一些更复杂的任务,我发现它其实能做得很好。
这件事对我来说有一个很大的感触:其实在模型从最开始按照 token去聊天,到现在能够变成一个 Agent,变成一个龙虾能够帮你去完成任务,它对于我们整个 AI 的想象力空间已经做了一个很大的提升。但同时,它对于整个系统的能力要求也变得很大,这也是为什么我最开始用 OpenClaw会觉得它有点卡的原因。
作为基础设施层面的厂商,我看到的是 Claw对于整个 AI 后面的大型系统和生态都带来了更多的机会和挑战。因为我们现在的这些资源,想要支撑起这样一个快速增长的时代是不够的。比如拿我们公司来说,我们在1月底开始,基本上每两周我们的 token量就翻一倍,到现在基本上翻了10倍。上次见到这个速度还是 3G 时代手机流量的那种感觉。我现在有种感觉,现在的 token用量就跟当年我们有 100MB 每月的手机流量时代一样。这种情况下我们需要进行更好的优化和整合,让每一个人都能把这种 AI 能力用起来。作为基础设施的玩家,我非常激动,也认为这里面有很多优化的空间。
罗福莉:我自己是把 OpenClaw当作 Agent框架的一个非常革命性和颠覆性的事件来看待的。虽然我知道其实我身边所有在进行深度 coding的人,他的第一选择可能还是Claude Code,但是我相信只有用过 OpenClaw的人会独特地感受到这个框架其实有很多在 Agent框架上的设计感是领先于Claude Code的。包括最近Claude Code有很多最新的更新,其实都是在向 OpenClaw去靠近。
我自己去使用 OpenClaw的话,我感觉这个框架给我自己带来更多的是一个想象力的随时随地的扩展。Claude Code可能最开始我只能在我的桌面上去延展我的创意,但是在 OpenClaw我可以随时随地去延展。我后面发现 OpenClaw它带来的主要核心价值在于两个:第一个是开源。开源其实是一个非常有利于整个社区去深入参与、重视、改进、投入到 Agent框架这个事的一个非常重要的前提条件。像 OpenClaw、像 Claude Code这样的一些 Agent框架,我认为它很大的一个价值是在把国内的可能没有非常接近顶尖模型、但是水平还是在次顶尖模型的这样一个赛道上的模型的上限给拉到非常高。在绝大部分的场景,其实我们能发现它的任务的完成度已经非常接近 Claude的最新模型。同时它又把下限给保证得非常好,因为它有一套 harness(编排)的系统或者说一套 scale的体系等等。所以我觉得 OpenClaw其实给我自己带来的,我认为从一个基座大模型的角度来说,它是保证了基座大模型的下限,然后拉升了它的上限。
此外,我认为 OpenClaw它其实给整个社区带来的价值是,它更多地去点燃了大家发现原来在大模型外的这一层、更重要的 Agent的这一层,它有非常多的想象力和空间可以做。这是我看到最近社区在有更多除了研究员以外的人在去参与到这个 AGI的变革当中,也有更多人去借助到更强的 Agent框架、harness(编排)或者 scaffold等等去替代自己的工作,释放自己的时间去写更有想象力的事情。
黄超:我感觉首先可能从交互模式上讲的话,为什么 OpenClaw这次会爆火,首先可能第一点就是给了大家一种更有活人感的一种感觉。因为比如我们做 Agent也有跑了一两年了,但之前包括像 Cursor、Claude Code这些 Agent其实大家给人感觉更强的是一种有工具感。我觉得 OpenClaw它的交互模式以这种 IM 软件嵌入的方式,可以让大家可能更有活人感,更有一点更接近于自己想象中的个人贾维斯这样一个概念。
另外一个我觉得它带给整个大家的一个启发是说,可能从它的架构 Agent Loop这种非常简单但高效的一种框架其实也是再次被证明。还有就是它可能会让我们重新思考:我们是否需要一个 all-in-one非常强大的智能体,能够帮我们做很多事情?还是需要一个比较好的、像这种类似于一个轻量级操作系统或者脚手架一样的小管家?我觉得它带来的是可以通过一个小的 OpenClaw、或者这样一个个龙虾的操作系统的生态,可以去把整个的这种包括让大家我觉得整个让整个社区大家更有玩起来的心态,是撬动整个生态里面所有的工具。随着像 Skills或者 harness(编排)这些大家也越来越多的人可以去设计更面向于像 OpenClaw这样一些系统里面的一些应用,然后去赋能于各行各业。我觉得这两点其实天然就和整个的开源生态结合得非常紧密。这两点其实相对来说是我觉得是带给我们最大的一个启发。
GLM-4 Turbo与Agent能力的增强
杨植麟:顺着刚才一直在讨论的 OpenClaw,想问一下张鹏总,看到最近智谱也发布了新的 GLM-4 Turbo模型,我理解这对 Agent能力其实也做了很大的增强。能不能给大家介绍一下这个新模型和其他模型的不同之处,以及我们也观察到一个提价的策略,那这个反映了什么样的一个市场的信号?
张鹏:前两天确实我们也紧急地更新了一波。当然这个其实是在我们整个发展路标当中的其中的一个阶段,我们提前把它放出来。这个事情其实最主要的目的还是要主打一个从原来的简单对话到干活,这也是刚才各位讲得非常赞同的一点:OpenClaw真的让大家觉得大模型不再是简单地能够聊天,真能帮我干活。但这个干活的背后隐藏的能力的需求是非常高的,它需要自己去长程地做任务的规划、不断地尝试、不断地去压缩自己的上下文、debug等等,还可能涉及到多模态信息的处理。所以这个对模型本身能力的要求其实是跟传统的面向对话的机器人的通用模型是有一些不一样的。
所以 GLM-4 Turbo是在这一方面做了一些专门的加强。尤其是刚才你提到的,比如我们要让它干活,长程的72小时如何能够不停地自己去 loop这个事,这里面是做了很多的。另外大家也提到关于 token消耗量的问题,你让它这个聪明的模型让它干这种复杂的任务,其实 token的消耗量是非常巨大的。普通人可能体会不出来,但只会看到自己的账单上的钱在不停地往下掉。所以在这一方面我们也做了一些优化,在面临复杂任务的时候它可能会用更高效的 token效率去完成这些事情。
本质上它的模型的架构还是一种多任务协同的通用的模型的架构,只是在能力上有一些倾向性的加强。提价这个事情其实也很顺畅地能够跟大家解释。刚才也提到了,我们现在不再是简单地问一个问题它的回答,它背后有思考的这个链路是很长的。包括很多任务它通过写代码的方式跟底层的一些基础设施进行打交道,还要去 debug,随时的去改正自己的错误,其实这个消耗量非常非常的大。完成一个任务可能它需要的 token量是原来的回答一个简单的问题的 token量的可能10倍甚至100倍。所以这个价格上成本上是有一定的提高的,所以我们也把它回归到一个正常的商业价值上来。因为长期的靠低价这个竞争也不利于整个行业的发展。所以这是我们的一个考量,也让我们能够持续地在商业化的路径上有一个很好的良性的闭环,不断地去优化模型的能力,能够跟持续地给大家提供更好的模型和相应的这些 token的服务。
推理时代的基础设施挑战
杨植麟:刚才非常有意义的分享。现在因为有这个开源模型,然后跟这个推理算力现在也开始形成一个生态,各种各样的开源模型可以在各种各样的推理算力上去给用户提供更多的价值。随着这个 token量的暴涨,现在也可能逐渐从训练时代变成了推理时代。所以想请教一下立雪,从 infra的层面,这个推理时代对于无问芯穹来说意味着什么?
夏立雪:感谢植麟。因为我们是一个诞生在 AI 时代的一个基础设施的厂商,我们现在也为 Kimi、为智谱、包括也在跟 MiMo去做合作,让大家能够把我们这样一个 token工厂更高效率地用起来。我们也一直在思考一件事:AGI时代需要的基础设施它会是什么样子的?我们怎么能够一步步地在这个过程中去实现它和推演它?
当前脚下的一个问题其实就是刚才大家在聊到的,现在整个像 Claw带起来的整个 token量的这种暴增,对于我们的系统效率其实带来了更大的优化的需求,包括其实价格的增长也是大家在这个需求下的一种解决方案。我们其实一直以来都是从这种软硬件打通的方式来去做布局和解决。包括我们其实接入了我们能够看到几乎所有种类的这种计算芯片,我们把国内的十几种这种芯片和几十个不同算力集群都给统一地连接起来。这样我们能够去解决就是 AI 的这样一个系统当中对于算力资源的一个紧缺的问题。因为我们当资源不足的时候最好的办法就是:第一,把能够用的资源都用起来;第二,让每一分算力都用在刀刃上,让每一个资源都发挥出最大的这样一个转换效率价值。所以在当前脚下要解决的就是怎么能够去进一步地打造一个更高效率的 token工厂。
这里面我们做了很多的优化。包括我们让这个模型和硬件上的各种的这种显存、各种各样的这些技术进行一个最优制的适配。包括我们也再看会不会在最新的模型结构和硬件结构下能够进行一些更深度的化学反应。解决这个脚下的效率问题,其实我们也只是打造了一个 token的标准化一个 token工厂。但是面向 Agent时代我们认为这还是不够的,因为就像刚才说的,Agent它更像是一个人。我其实很坚定地认为当前的很多云计算时代的基础设施其实是为服务一个程序、服务一个人类工程师所设计的,而不是为 AI 设计的。
有点像什么呢?我们做了一个基础设施,然后它上面有一个接口,这个接口是为人类工程师所做的。然后在上面要再包一层再去接我的 Agent。那这种方式其实是用人的这个操作的一些能力限制了 Agent的发挥空间。我举一个例子,比如 Agent它能够做到秒到毫秒级别去思考和发起任务。这件事情其实在我们之前的这些比如底层的 K8S 这些能力上其实是没有做好这个准备的,因为人类大概发起一个任务是分钟级别的。那我们这样的一些功能其实是需要进一步的能力,我们将其称之为 Agentic Infra,就是我们需要打造一个更智慧的一个 token工厂。
从更长远的未来,真正 AGI的时代到来的时候,我们认为连基础设施都应该是一个智能体。我们认为我们自己所打造的这套工厂本身也应该是一个能够自我进化、自我迭代的。它能够形成一个自主的组织,相当于它有一个 CEO,这个 CEO 是一个 Agent,它可能是一个 Claw在管理整个基础设施。然后根据它的 AI 客户的需求,自己去提需求迭代自己的基础设施,这两者 AI 和 AI 之间才能够去更好地形成和。所以我们也去做一些比如我们能够让 Agent和 Agent之间更好地通信,做 cache to cache这样一些复制的能力。所以我们其实一直都在思考基础设施和 AI 的发展不应该是一个隔离的状态说我接受一个需求我就去制造,而是应该产生非常丰富的化学反应。那这件事才是我认为真正地做到所谓的软硬协同,做到这种算法和基础设施的协同。
模型结构的创新与长上下文的竞争
杨植麟:接下来想问问福莉。小米最近也是通过发布新的模型,包括开源一些背后的技术,我觉得对这个社区做出了很大的贡献。所以想问一下小米在做大模型方面你觉得会有什么独特的优势?
罗福莉:我觉得我们先抛开小米在做大模型方面有什么独特优势这个话题。我更想谈一下其实中国的做大模型的团队在做大模型上的一个优势,我觉得这个话题更具备更广泛的一个价值。其实在大约两年前,我看到中国的基座大模型团队已经在开始了一个非常好的突破:我们怎么在有限的算力、尤其是在一些 NVLink互联带宽受限的一些算力的情况下,怎么去突破这些低端算力的限制,去做一些看似是为了效率妥协的一些模型结构的创新。
但是其实我们后面能看到,由这样一些创新引发的是一个变革:我们怎么在算力一定的情况下,怎么去发挥一定算力的最高的智能水平?我觉得这是由 DeepSeek带来给所有国内的基座大模型团队的一个勇气、一个信心。虽然在今天我们其实我们自己的国产芯片也好,尤其是推理芯片、以及我们的训练芯片,其实是已经是不再受这个限制。但是我们能看到在这样的限制的情况下,催生了我们对于更高的训练效率、更低的推理效率的模型结构的全新的探索。
小米也有新的面向下一代结构的 High Sparsity的结构。我们面向于 Agent这个时代去思考的,如何在这个时代我们去做更好的模型结构创新。我为什么觉得结构的创新是如此的重要?是因为我们其实刚刚探讨到 OpenClaw这个话题。OpenClaw其实大家如果真实地去用会发现你越用越好用,越用越聪明。那么它的一个前提是你的推理的上下文。其实长上下文是一个讨论了很久的一个话题,但是其实真正现在你发现能有一个模型它在长上下文的情况下表现非常好,性能非常的强劲,推理成本的非常的低,其实很多模型它不是做不到比如一兆或十兆的上下文,而是因为它去推一兆十兆它的成本太贵了,速度太慢了。
那么怎么你能做到在一兆或十兆这个上下文的情况下推的成本够低速度够快?然后在这种情况下,才会有真正的生产力价值的任务交给这个模型。从而去激发在长上下文情况下它去完成更高复杂度的任务,可能我们才能在这样十兆甚至一百兆上下文的情况下实现模型的自迭代。所谓模型的自迭代就是它可以做一个复杂的环境里面依靠于超长的上下文完成对自我的这个进化,这个进化有可能是对 Agent框架本身的。所以其实怎么实现一个 Long Context efficient的架构,以及怎么在推理侧做到,其实它是一个全方位的竞争。
除了我刚刚提到的在预训练做好一个 Long Context efficient的架构,以及如何去采集到真实的这种在一百兆上下文里面真的都具有长程依赖的文本,结合复杂环境产生的轨迹,这是我们现在正在经历的事情。但是由于大模型本身在飞速的进步,由于我们有 Agent框架更好的加持,我们能看到推理需求在今年已经发生了近10倍的一个增长,那么今年整个 token的增长会不会到100倍?这里面其实我们又到了另外一个维度的竞争:算力、推理芯片、甚至下到能源。
Agent的核心模块与未来方向
杨植麟:非常有见解的分享。下面想问问黄超,因为你也开发了一些非常有影响力的 Agent的项目,包括像 Nanobot,然后想问一下你自己觉得从 Agent的 harness(编排)或者应用层面,接下来会有什么技术方向是你觉得比较重要、可能大家需要去关注的?
黄超:感谢植麟。我觉得首先就是从如果我们是把 Agent的一些技术抽象出来,它关键几个点,比如 Planning(规划),然后还有就是 Memory(记忆)和 Tool Use(工具使用)。比如从 Planning(规划)讲的话,我觉得现在的问题就是还是面向于一些长程的任务或者非常复杂的上下文(比如500步甚至更长的步数),它很多模型我觉得它不一定能够去做很好的 Planning(规划)是因为我觉得它本质上可能不具备这样一个隐性的知识。特别是对于这种复杂知识把它固化到模型里面。虽然 Skill或者 harness(编排)一定程度上缓解了这种 Planning(规划)里面带来的错误,因为它提供了一些高质量的 Skill。我觉得这是针对 Planning(规划)。
然后的话就是 Memory(记忆),我觉得 Memory(记忆)给我们的一种感受就是信息压缩不准确,包括搜不准。然后现在特别是面向你的整个长程任务的体系还有一些复杂场景的话,其实 Memory(记忆)就会暴涨。我觉得未来 Memory(记忆)应该是做类似于会走向一些分层的设计。因为现在其实还没有一套很好的机制如何去管理这种一群龙虾(Agent Swarm)带来的这种上下文。因为这个我们感觉压力挺大的。
然后对于整个我觉得 Tool Use(工具使用)这一块的话,其实就是 Skill。现在整个 Skill门槛大幅降低之后,其实未来可能不只一个龙虾。但是高质量的 Skill我觉得是比较少的。低质量的 Skill会很影响整个 Agent完成任务的一个完成度。然后另外的话就是 Skill这个我们觉得很难、很多时候也会存在一些恶意注入的问题。所以我觉得从 Tool Use(工具使用)这一块的话,我觉得可能得需要靠整个社区,然后来去把整个 Skill的发展得更好。如何去在执行过程当中去进化出来一些新的 Skill。我觉得这个可能是整个不管是从 Planning(规划)、Memory(记忆)还是 Skill里面我觉得当下 Agent可能存在的一些痛点和未来可能潜在的一些方向。
未来12个月的展望与关键词
杨植麟:看到大家通过不同的视角去讨论一个问题,就是随着任务复杂度的增加你的上下文会暴涨。最后我们来一个开放式的展望,想请各位用一个词来描述一下接下来12个月大模型发展的趋势以及你的期望。这次我们先从黄超这边开始。
黄超:我感觉一个词应该叫生态。我觉得未来 Agent真的要从真正的个人助手特别是转换成打工人。我感觉未来很多软件不一定会是面向人类了,因为人类是需要 GUI,但可能未来很多软件都是面向 Agent Native去使用的。那这样我感觉一个比较有趣的,人只会去使用让自己快乐的 GUI,所以我觉得这个就是需要一个整个生态。
罗福莉:我认为接下来的关键词会是自进化(Self-evolution)。虽然这个词过去一年大家也多次提到,但是我觉得在 Agent框架更好的加持下,它触到了模型它可能当它执行更长时间的任务的时候,模型它可以自己去学习和进化。如果这种自进化的范式能够辐射到更广的学科和领域,我觉得已经能够加速我们自己的研究效率近10倍了。
夏立雪:我的关键词叫可持续 token。因为我们的资源终究是有限的,我们能否给大家提供持续、稳定、然后大规模能用起来的这些 token。我也在想能不能把中国特色的这种 token经济学给做起来。我们现在想做的就是有点像 AI Made in China,就是我们能够把中国的这些能源上的优势通过这些 token工厂可持续地转换成为优质的这种 token输出到全球。
张鹏:关键词让我说未来12个月,面临的最大问题可能就是算力。所有的这个技术、包括智能体框架让很多人有很好的创造力、效率提升10倍,但前提条件就是大家能够用得起、用得起来。不能因为说算力不够,一个问题提出去让它思考半天也不给我答案。需求正在爆发,我们要一起想想办法。
杨植麟:好的,非常感谢大家精彩的分享。可以看到大家对 Agent、对大模型生态在未来一年的演进还是非常有信心的,期待我们能一起见证这些关键词的实现。谢谢大家!
| 文章来源:数字开物

【AI技术与应用交流群|仅限受邀加入】
AI算力领域TOP级从业者专属圈层
√ 与头部算力企业深度对话
扫码验证身份(需备注姓名/公司/职务
不止有 DeepSeek,更有 AI产业的未来!
【专栏】精品再读
夜雨聆风