3月27日,在2026中关村论坛年会-AI开源前沿论坛上,一场由月之暗面创始人杨植麟发起,智谱AI首席科学家张鹏、无问芯穹联合创始人兼CEO夏立雪、小米MiMo大模型负责人罗福莉、香港大学助理教授 nanobot团队负责人黄超共同参与的圆桌对话精彩上演,围绕AI开源、Agent及大模型发展等核心话题展开讨论,分享自己的洞察及对未来的展望。
圆桌对话视频
以下是对话内容:(AI早餐汇在不改变嘉宾原意的情况下略作精简)
杨植麟:今天邀请的嘉宾覆盖了模型层、底层算力层及Agent层,核心将围绕AI开源和Agent展开探讨。首先提出第一个问题,请各位分享下日常使用OpenClaw或类似产品时印象最深刻、最具想象力的点,并从技术角度谈谈对OpenClaw及相关Agent的看法。
张鹏:我很早就开始接触OpenClaw,当时它的前身是Clawdbot,作为程序员,我深刻感受到它的核心突破是打破了技术壁垒——不再是程序员和极客的专利,普通人也能便捷使用顶尖模型的编程和智能体能力。
我更愿意将OpenClaw称为“脚手架”,它在底层模型基础上,搭建了牢固、便捷且灵活的平台,让那些因不会代码或相关技能而无法实现的想法,通过简单交流就能落地。
夏立雪:我最初使用OpenClaw时并不适应,觉得它反应比传统聊天机器人慢。但后来意识到,它与普通聊天机器人的核心区别是,它能胜任大型复杂任务。这一转变不仅极大提升了AI的想象力空间,也对系统能力提出了更高要求,这也是其初期使用时卡顿的原因。
作为AI基础设施层厂商,我看到OpenClaw给整个系统和生态带来了更多机遇与挑战。目前Token用量增长极快,我们公司自一月底以来,每两周Token量就翻一番,至今已增长十倍,这种增速类似当年3G时代手机流量的爆发。当前资源不足以支撑这种快速增长,亟需通过优化整合,让全社会每个人都能便捷使用AI能力,这其中仍有大量探索空间。
罗福莉:我认为OpenClaw是Agent框架领域的革命性事件。尽管深度编码从业者仍首选Claude Code,但OpenClaw的框架设计在Agent层面领先于Claude Code,且Claude Code的诸多更新也在向其靠拢。
它带给我的核心价值,一是开源特性,能推动社区深度参与框架的改进与优化,有效拉升国内中高端模型的上限,同时通过Skills体系等设计保障下限,其任务完成度已接近Claude Code最新模型;二是点燃了社区对Agent层的探索热情,让更多非研究员参与到AGI变革中,借助Agent框架释放时间,专注更具想象力的事情。
黄超:OpenClaw的爆火,首先得益于其更具“活人感”的交互模式——以IM软件嵌入的方式,打破了此前Agent的工具感,更接近人们想象中的个人助手。其次,其简单高效的AgentLoop架构再次得到验证,也让我们重新思考:AI发展无需追求“全能型智能体”,更需要类似轻量级操作系统或脚手架的“小管家”。
这种模式能带动整个社区的参与热情,撬动生态内所有工具,结合开源生态,让更多人设计适配OpenClaw的应用,赋能各行各业。
杨植麟:顺着OpenClaw的话题,想请教下张鹏,智谱近期发布的GLM-5-Turbo模型对Agent能力有大幅增强,能否介绍下该模型与其他模型的不同之处,以及提价策略反映的市场信号是什么?
张鹏:GLM-5-Turbo的发布,核心是推动大模型从“简单对话”向“实际干活”转型,这与各位嘉宾提到的OpenClaw让大模型落地应用的观点高度契合。要实现“干活”能力,模型需具备长期任务规划、重试、上下文压缩、Debug及多模态信息处理等能力,GLM-5-Turbo在这些方面做了针对性强化,尤其优化了模型72小时持续Loop的稳定性。
同时,考虑到复杂任务的Token消耗量巨大,我们也优化了模型的任务执行效率,降低实际使用成本。模型本质仍采用多任务协同的通用架构,仅在能力上侧重实用化。
提价则是基于成本考量:复杂任务的Token消耗量是简单对话的十倍甚至百倍,模型规模扩大也提升了推理成本,合理提价能实现商业化良性闭环,保障模型持续优化和服务稳定提供,避免低价竞争损害行业发展。
杨植麟:当前开源模型与推理算力已形成生态,Token使用量需求爆发标志着行业从训练时代进入推理时代。想请教下夏立雪,从基础设施层面,推理时代对无问芯穹意味着什么?
夏立雪:作为AI时代的基础设施厂商,我们正与Kimi等公司及高校科研院所合作,核心思考是适配时代需求,打造高效、智能的基础设施。当前首要解决的是Token量暴增带来的系统效率优化问题,我们通过软硬件打通,整合国内十几种芯片和几十个算力集群,实现资源最大化利用,打造标准化“Token工厂”。但面向Agent时代,现有基础设施仍有不足——当前云计算基础设施是为人类工程师设计,而非AI,限制了Agent的发挥(如Agent可实现毫秒级任务发起,而现有基础设施仅能适配人类分钟级操作)。
因此,我们正打造“AgenticInfrastructure”。长远来看,AGI时代的基础设施本身也应是智能体,能自我进化、自主迭代,通过Agent管理整个基础设施,实现AI与基础设施的深度耦合,这也是无问芯穹的使命。
杨植麟:小米近期发布新模型并开源相关技术,对社区贡献显著。想请教罗福莉,小米在做大模型方面有哪些独特优势?
罗福莉:我先谈谈中国大模型团队的整体优势。两年前,国内基座大模型团队就在有限算力、受限带宽的条件下,探索出适配低端算力的模型结构创新,这种创新催生了“在算力一定时,最大化智能水平”的变革。
如今国产芯片已摆脱限制,但这种探索仍在持续,催生了多种创新型模型架构,小米也推出了面向Agent时代的HySparse架构。这类架构创新的核心价值,在于解决Long Context(长上下文)的推理成本与速度问题——只有实现长上下文的低成本、高速推理,才能让模型承接高生产力任务,甚至实现自迭代。
当前我们的探索重点,一是预训练阶段的Long Context高效架构,二是后训练阶段的算法优化与真实长上下文数据采集。长远来看,Token量的爆发式增长(今年可能达到百倍增长),将推动行业竞争进入算力、推理芯片乃至能源层面。
杨植麟:黄超团队开发了nanobot等有影响力的Agent项目,想请教从Agent的Harness及应用层面,未来有哪些值得关注的技术方向?
黄超:Agent的核心技术可抽象为Planning(规划)、Memory(记忆)和ToolUse(工具使用)三个模块,每个模块都有明确的痛点和发展方向。
在Planning方面,当前模型在长步数(如500步以上)、复杂垂直领域任务中规划能力不足,核心原因是缺乏相关隐性知识,未来需将复杂任务知识固化到模型中,同时借助高质量Skill和Harness缓解规划错误。
在Memory方面,当前存在信息压缩不准、检索低效等问题,且长任务、多Agent场景会导致上下文暴增,现有简单文件式记忆已无法满足需求,未来需走向分层设计,提升记忆通用性,解决多Agent上下文管理难题。
在Tool Use方面,当前Skill数量多但质量参差不齐,且存在恶意注入风险,未来需依靠社区共建,提升Skill质量,实现Skill在执行过程中的自主进化。
杨植麟:总结来看,模型层面提升原生上下文长度、AgentHarness层面优化Planning、Memory及多Agent协同,将共同推动复杂任务的完成能力提升。最后请各位嘉宾用一个词,展望未来12个月大模型的发展趋势与期望。
黄超:我的关键词是“生态”。当前Agent的普及仍停留在新鲜感阶段,未来需推动Agent从“个人助手”转型为“实用工具”,真正成为提升生产力的“打工人”。
这需要整个开源生态共建,推动模型、Skills平台、工具等向Agent原生模式转型——未来很多软件可能不再面向人类(依赖GUI),而是面向Agent(依赖CLI),唯有生态协同,才能让Agent发展更具活力。
罗福莉:我的关键词是“自进化”。过去一年“自进化”多是概念,如今借助强大的Agent框架,已找到务实的实现路径。在带有验证条件和Loop的框架中,模型可持续迭代优化目标,目前国内模型已能在特定科学研究任务中自主进化两三天。
自进化的核心价值不是替代人类生产力,而是像顶尖科学家一样探索未知,当前已能将大模型研究效率提升近十倍,期待未来一年这种能力辐射到更多学科领域。
夏立雪:我的关键词是“可持续Token”。作为基础设施厂商,我们看到资源有限与Token需求爆发的矛盾,未来需实现从能源、算力到Token、价值的全链路可持续迭代。我们正整合国内外算力资源,打造“世界Token工厂”,将中国的能源优势转化为优质Token输出到全球,构建具有中国特色的Token经济学,让大模型能力持续服务下游领域。
张鹏:我的关键词是“算力”。当前所有技术创新和效率提升,都依赖于充足、可用的算力。推理时代的需求爆发式增长(可能达到百倍),导致大量需求无法满足,算力已成为阻碍研究进展和技术落地的关键瓶颈,需要行业共同探索解决方案。
杨植麟:感谢各位嘉宾的精彩分享,本次对话到此结束。
添加微信号Linda09120809为好友申请加入[AI早餐汇]交流群,更多精彩内容和资源,更多业内同行交流。
夜雨聆风