
在2026中关村论坛AI开源前沿论坛上,一场以"OpenClaw与AI开源的未来走向"为核心议题的圆桌对话引发广泛关注。五位行业领军者聚焦当下最热的AI Agent话题,从模型层、算力层到应用层,深度剖析龙虾(OpenClaw)的爆火逻辑、技术挑战与未来走向。
对话由月之暗面联合创始人兼CEO杨植麟主持,参与嘉宾包括:智谱AI CEO 张鹏、无问芯穹创始人兼CEO 夏立雪、小米MiMo大模型掌舵人罗福莉,以及香港大学研究员黄超——他用3400行代码复现了OpenClaw的核心能力。

一、OpenClaw为何爆火?五人各有所见

张鹏将OpenClaw的颠覆性归结为"脚手架"价值:它在大模型能力之上搭建起一套灵活而牢固的框架,让原本受限于编程门槛的普通人也能方便地调用顶尖模型能力。尤其是在编程与智能体领域,"原来自己受限于不会写代码,今天终于可以通过很简单的交流把它完成"——这对他来说是一次真正意义上的认知冲击。
夏立雪坦言自己一开始并不适应:习惯了与大模型聊天的他,觉得OpenClaw"反应很慢"。但当他意识到OpenClaw不是聊天工具、而是一个能承担大型任务的"执行者"之后,想法彻底改变。他用一组数据说明了这场变革的烈度:从今年1月底开始,无问芯穹的token处理量每两周翻一番,累计已增至约10倍。"上次见到这个速度,还是3G时代手机流量爆发的那种感觉。"
罗福莉则将OpenClaw视为Agent框架领域一次"革命性和颠覆性的事件"。她指出,OpenClaw的核心价值在两点:其一,开源特性使社区能够深度参与、持续改进;其二,开源框架有效拉高了国内次闭源模型的能力上限,同时通过Harness体系与Skills设计保障了任务完成的下限。更重要的是,OpenClaw点燃了社区对大模型之外"Agent这一层"的想象力,越来越多非研究员背景的人开始深度参与AGI变革。
黄超从交互模式切入,认为OpenClaw爆火的核心在于两点:一是以嵌入式软件(IEM)交互方式赋予了AI更强的"活人感",更接近人们想象中"个人贾维斯"的形态;二是Agent Loop这种简单而高效的架构框架再度被证明有效。他还指出,OpenClaw提供的是一种轻量级"操作系统"逻辑——通过开放的生态让整个社区"玩起来",进而撬动各行各业的工具和应用创新。

二、智谱GLM-5 Turbo:为"干活"而生


针对杨植麟关于智谱新模型的提问,张鹏介绍,GLM-5 Turbo的核心目标正是从"聊天"转向"干活"。与传统对话模型相比,Agent场景对模型的要求截然不同:需要长程任务规划、持续自主Loop、上下文压缩、Debug纠错,乃至多模态信息处理。GLM-5 Turbo针对这些能力做了专项强化,尤其在"如何不间断执行72小时长程任务"方面有所突破。
关于提价策略,张鹏的解释直接:完成一个Agent任务所消耗的token量,可能是回答一个简单问题的10倍甚至百倍;模型规模更大、推理成本相应上升;长期依靠低价竞争不利于行业健康发展。"我们要回归到正常的商业价值,让良性闭环持续运转。"

三、从"token工厂"到"Agent Infra":
无问芯穹的三级跳


夏立雪以基础设施视角回应了"推理时代来临"的命题,将无问芯穹的演进路径分为三个层次:
当前阶段:应对token量爆增带来的效率优化需求。无问芯穹已接入国内十几种芯片、几十个异构算力集群,通过软硬协同将有限资源的利用率推向极限,打造高效的"标准化token工厂"。
中期阶段:现有云计算基础设施是为人类工程师设计的,无法充分发挥Agent的能力。例如人类发起任务是分钟级,而Agent可以做到毫秒级——现有底层能力对此准备不足。为此,无问芯穹正在构建面向Agent的基础设施(Agent Infra),并探索cache to cache等能力,让AI与AI之间形成更高效的耦合。
长期愿景:真正的AGI时代,基础设施本身也应是一个智能体——能够自我进化、自主迭代,由一个"Agent CEO"管理整个算力工厂,根据AI客户需求动态调整自身能力。

四、国产大模型的结构创新优势


罗福莉将话题引向更宏观的层面:中国大模型团队在有限算力约束下,率先探索出了在算力一定情况下发挥最高智能水平的路径——这是DeepSeek带给所有国产大模型团队的勇气与信心。
她特别强调了“长上下文(long context)”对Agent能力的决定性意义:OpenClaw越来越好用的前提,是有一个在长上下文下性能强劲、推理成本低的模型支撑。能否在1M甚至10M的上下文长度下保持低成本、高速度,是决定能否承接高生产力任务的关键门槛。小米和其他国内团队正在探索hybrid sparse、linear attention等新型模型结构,以实现长上下文高效架构(long context efficient architecture)。
她还前瞻了"模型自进化"的路径:在复杂环境中,依托超长上下文,模型可以完成对自身的迭代——无论是对Agent框架本身,还是对模型参数本身。这不是替代现有生产力,而是像顶尖科学家一样探索未知。
五、Agent技术三大痛点与方向


黄超将当前Agent的核心技术模块拆解为三部分,逐一梳理痛点:
规划(Planning):在长程任务或超长上下文(500步以上)中表现不稳定,根本原因是缺乏隐性领域知识。未来需要将复杂垂直领域的任务知识固化至模型,Skills和Harness机制在一定程度上缓解了planning中的错误率。
记忆(Memory):信息压缩不准确是永恒难题;不同场景(coding、deep research、多媒体)的数据模态差距巨大,难以形成通用的Memory机制。随着"Agent集群"的出现,一个人同时拥有一群龙虾,上下文将指数级暴增,现有Memory管理机制远未就绪。
工具调用(Tool use):MCP协议已被广泛使用,但质量参差不齐、安全风险(如恶意注入)尚未有效解决;高质量Skills稀缺,低质量Skills直接拖累任务完成率。整个社区需要围绕Tool use生态形成更好的共建机制。

六、各自的12个月关键词


圆桌的最后,杨植麟邀请每位嘉宾用一个词描述未来12个月大模型发展的核心趋势:
黄超:生态。龙虾让大家很活跃,但从个人助手真正转型为"打工人",还需要整个生态——模型迭代、Skills平台、工具链——共同面向Agent原生化演进。
罗福莉:自进化。借助超强模型加持,Agent框架已能激活此前预训练模型未被充分发挥的潜力。在Agent框架中叠加verify条件与loop设置,模型便能不间断地迭代优化目标——目前已能自主运行两至三天。这是真正创造新事物、而非替代现有生产力的突破。
夏立雪:可持续token。算力资源终究有限;如何打通从能源到算力、从算力到token的完整链路,实现"可持续、高效、低价"的token供给,是基础设施的终极命题。他的愿景是:将中国能源优势通过token工厂持续转化为优质token,输出全球,成为"世界token工厂"。
张鹏:算力。所有技术创新与智能体框架的落地,都以"用得起、算得快"为前提。推理需求正在10倍、100倍地爆发,大量需求还没被满足。他借用张亚勤院士的一句话作结:"没卡没感情,谈卡伤感情。"

关于我们

北京市人工智能协会是在北京市科委、中关村管委会指导下,经北京市民政局核准登记的非营利性社会团体,由中关村发展集团、中关村科学城公司、智谱华章、清华大学、智源研究院、京东、小米、快手等多家单位联合发起设立。协会始终坚守“搭平台、促协同、强服务、树标杆”的初心使命,致力打造开放、协同、专业、高效的产业服务平台。
协会紧扣北京(京津冀)国际科技创新中心建设目标,立足北京,辐射全国,面向世界,以技术创新为核心、以人才培育为根基、以场景赋能为路径、以开放合作为格局,打造具有国际影响力的AI标杆行业协会。协会立足政府决策 “智囊团”、产业发展 “助推器”、企业成长 “服务商” 三重核心定位,聚焦北京人工智能产业发展重大课题开展前瞻性研究,推动产业链上下游协同联动,提供政策对接与决策支撑、标准制定与行业治理、场景驱动与产业落地、人才引育与生态构建、品牌活动与国际交流等全方位服务,致力引领产业健康可持续发展,为全球人工智能治理贡献 “北京智慧” 与 “北京方案”。
夜雨聆风