
文 | 哀佳
ID | BMR2004
2026年3月27日上午,中关村论坛平行论坛AI开源前沿论坛在京举行。
其中,“圆桌对话—OpenClaw与AI开源” 作为重磅环节,由月之暗面创始人杨植麟主持,智谱华章CEO张鹏、无问芯穹CEO夏立雪、小米大模型负责人罗福莉、港大教授黄超等嘉宾受邀出席。
当前,AI开源已成为加速技术创新与产业变革的关键力量,围绕近期备受关注的开源项目OpenClaw、Token工厂、推理效率等问题,几位嘉宾展开了讨论。
智谱华章CEO张鹏认为:“OpenClaw的出现让大家意识到,AI不再是程序员或者说极客们的这种专利,普通人也可以比较方便地来使用顶尖模型的能力.”
小米 MiMo 大模型负责人罗福莉表示:“OpenClaw带来的更多是一个想象力随时随地的扩展,Claude Code只能在我的桌面上去延展我的创意,但是在OpenClaw,我可以随时随地。”
作为基础设施服务商,无问芯穹联合创始人兼 CEO夏立雪认为:“OpenClaw对于整个AI系统和生态都带来了机遇和挑战。现在所有能够用到的资源,想要支撑起这样一个快速增长的时代是不够的。”
香港大学助理教授 & 博士生导师、Nanobot 团队负责人黄超认为,未来真正让“龙虾们”真的沉淀下来,成为大家搬砖的工具,成为真正的Co-worker ,还是需要靠整个开源生态的努力。
以下是本次圆桌讨论的完整内容呈现:
01
OpenClaw带来的核心价值与挑战
主持人(杨植麟):欢迎各位。今天邀请到各位重磅嘉宾,覆盖了不同的层面:从模型层到底层的算力层,再到上面的Agent层。很高兴今天能跟大家一起来探讨,最主要的关键词是“开源”和“Agent”。
那我们就先从第一个问题开始,这个问题是给所有人的:现在最流行的OpenClaw,大家就使用这个OpenClaw或者类似的产品,有什么觉得最有想象力或者印象深刻的是什么?然后从技术的角度来看,如何看待今天OpenClaw和相关的Agent的演进?我们要不从张鹏这边开始。
张鹏(智谱华章CEO):好,感谢主办方给我们机会跟大家来交流。确实很早我就开始自己来玩这个OpenClaw,当时还不叫OpenClaw,最早叫CloudBot。然后来折腾这些事情自己动手来搞,毕竟也是程序员出身,玩这些东西还是有一些自己的体验。
我觉得这个事情它可能给大家带来的最大的一个突破点,或者说新鲜的一个点就在于,可能这件事情不再是程序员或者说极客们的这种专利,普通人也可以比较方便地来使用顶尖的这些模型的能力,尤其是在编程方面的能力。
我到现在为止,跟大家在交流过程当中更愿意把OpenClaw称作脚手架。它提供的是一种可能性,在模型的基础上搭起来一个很牢固的、很方便的,但是又很灵活的这样的一个脚手架。大家可以按照自己的意愿去使用很多的底层模型提供的很新奇的一些东西。原来自己的一些想法受限于自己不会写代码,或者不会一些技能,那今天终于可以通过很简单的交流就可以把它完成。所以这个事情对我来说是一个非常大的一个冲击,或者说让我重新认识了这样一件事情。
夏立雪(无问芯穹联合创始人兼CEO):对,其实我最开始用OpenClaw的时候是不太适应的,因为我习惯于这种跟大模型聊天的这种交流方式,然后发现OpenClaw感觉好像反应好慢这种感觉。但是后来我意识到一个问题就是,它和之前的这种聊天机器人有一个很大的不一样,它其实应该是一个能够帮我完成一个大型任务的人。所以,我后面开始给它提交一些更复杂的任务,发现它能够做得很好。
这件事情对我来说有一个很大的感触,模型从最开始的按照token去聊天,到现在能够变成一个Agent,变成一个龙虾能够帮你去完成任务,它对于我们整个AI的想象力空间已经做了一个很大的提升。但同时,它对于整个系统能力的要求也变得很大,这是为什么我一开始用OpenClaw会觉得它有点卡的原因。
我们作为基础设施层这样一个厂商,我其实看到的是,OpenClaw对于整个AI大型系统和生态都带来了更多的机遇和挑战。现在所有能够用到的资源,想要支撑起这样一个快速增长的时代是不够的。
比如说就拿我们公司来说,我们公司在1月底开始基本上每两周token量就翻一翻,到现在基本上翻了10倍。上次见到这个速度还是当时3G的时候手机流量的那种感觉。所以我现在有种感觉,就是现在的token用量,就跟当年我们有100兆每个月的手机流量一样。这种情况下,其实我们所有的资源是需要进行更好的优化,进行更好的整合,然后让我们的每一个人,不仅仅在AI领域,而是在整个社会上鲜活的人,都能够去把这个OpenClaw的AI能力给调用起来。所以作为基础设施的玩家,其实对这个时代是非常激动和感触的,而且认为这里边有很多的优化空间,是我们仍然应该去探索应该去尝试的。谢谢。
罗福莉(小米MiMo大模型负责人):我自己是把OpenClaw当做Agent框架的一个非常革命性和颠覆性的一个事件来看待的。虽然我知道就是其实我身边所有在进行非常深度coding的人,可能他的第一选择还是Claude Code。但是我相信只有用OpenClaw的人会独特的感受到,这个框架它其实有很多在Agent框架上的设计,最近是领先于Claude Code,包括最近Claude Code有很多最新的更新,其实都是向OpenClaw去靠近。我自己去使用OpenClaw的话,我感觉这个框架给我自己带来更多是一个想象力的随时随地的一个扩展,Claude Code可能最开始只能在我的桌面上,然后去延展我的创意,但是在OpenClaw我可以随时随地去延展我的创意。
我后面发现,其实OpenClaw带来的主要核心价值在于两个,第一个是它是开源,开源其实是一个非常有利于整个社区去深入、去参与、去重视改进去投入到Agent框架,这是非常重要的前置条件。像OpenClaw、像Claude Code这样的一些Agent框架,我认为它很大的一个价值是,把国内的可能没有非常接近于闭源模型,但是水平还是在次闭源模型的这样赛道上的模型上限给拉到非常高。在绝大部分的场景,其实我们能发现它的任务的完成度已经非常接近于Claude的最新的模型,然后同时它又把下限给保证得非常好。因为它可以靠一套Harness的系统或者说可以靠它的Skills的体系等等,很多的设计保证它的任务的完成度和准确率。所以我觉得,OpenClaw从一个基础大模型的角度来说,它是保证了基础大模型的下限,然后拉伸了它的上限。
此外,我自己认为OpenClaw它其实给整个社区带来的价值是,它更多去点燃了大家发现原来在大模型外的这一层,更重要的Agent的这一层,它有非常多的想象力和空间可以做,然后这是我看到最近社区有更多除了研究员以外的人参与到了AGI的变革当中,然后也有更多人去接触到更强的Agent框架Harness或是Skateboard等等,一定程度上去替代自己的工作,释放自己的时间,去做更有想象力的事情。
黄超(香港大学助理教授&博士生导师、Nanobot团队负责人):从交互模式上来讲,为什么OpenClaw这次会爆火,我感觉首先可能第一个,就是给了大家一种更有活人感的一种感觉。
比如说,我们其实做Agent也有一两年了,但之前包括像Cursor,Claude Code这些Agent,大家给人感觉更强的是一种有种工具感。OpenClaw它首先交互模式以这种IM软件嵌入的方式,让大家可能更有一种活人感。更接近于自己想象中的人的概念,这可能是交互模式上的。
另外一个,它带给整个大家的启发是说,Agent Loop这种非常简单但高效的框架也是再次被证明,会让我们重新思考,是否需要一个All-in-one非常强大的智能体,然后能够帮我们做很多事情。还是需要一个比较好的,类似于一个轻量级操作系统或者脚手架一样的一个小管家。通过一个小的OpenClaw,或者是龙虾的操作系统,生态可以去把整个的这种包括让大家都玩起来,撬动整个生态里面所有的工具,包括随着像Skills或者Harness这些,越来越多的人可以去设计更面向于像OpenClaw这样的一些系统里面的一些应用,然后去赋能于各行各业。它其实和天然整个开源生态结合的非常紧密,所以我觉得这两点其实相对来说是带给我最大的一个启发。
02
要实现更快的推理速度,要打造更高效的token工厂
主持人(杨植麟):那顺着这个,想问一下张鹏。最近智谱也发布了新的GLM-4-Turbo模型,然后我理解对这个Agent能力做了很大的增强。所以能不能给大家介绍一下,这个新模型和其他模型的不同之处,以及就是说我们也观察到有一个这种提价的策略,反映了什么样的一个影响呢?
张鹏(智谱华章CEO):好,这是个很好的问题,就是前两天确实我们也紧急更新了一波,这个事其实是在我们整个发展目标当中的一个阶段,最主要的目的还是要主打一个从原来的简单的对话到干活。也是刚才各位讲的非常赞同的一点,就是OpenClaw真的让大家觉得大模型不再是简单的,能够聊天,真的能帮我干活。但这个干活的背后隐含的这个能力需求是非常高的,就是它需要自己去长程的做任务的规划,不断地重试,不断地去压缩自己的上下文,然后debug等等,还有可能涉及到多模态信息的处理。
所以这个对模型本身能力的要求,其实是有跟传统的面向对话的机器人的这种通用泛用模型有一些不一样的。所以GLM-4-Turbo在这方面做了一些专门的加强。尤其是刚才你提到的,比如说我们要它干活长程的72小时,如何能够不停地自己去loop这个事,这里边是做了很多的一些工作。
另外,就是大家也提到,关于这个token消耗量的问题。让它这个聪明的模型,让它干这种复杂的任务,其实token的消耗量是非常巨大的。可能一般人可能体会不出来,但是只会看到自己的账单上的那个钱在不停地往上飙。在这方面我们也做了一些优化,在面临复杂任务的时候,会用更高效的token效率去完成这些事情。主要在这几个方面你做了一些优化。但本质上的模型的架构还是一种就是多用协同的这样的一种通用的模型的这个架构,只是在能力上有一些偏向性的加强。
那么提价这个事情也顺便的向大家解释,我们现在不再是简单的问一个问题,模型回答。它背后有思考的这个链路是很长的,然后包括很多任务,它通过写代码的方式跟底层的这些基础设施进行打交道,还要去debug随时的改正自己的错误。其实这个消耗量非常非常的大。完成一个任务可能它需要的token量是原来的回答一个简单的问题的token量的可能十倍甚至百倍。所以这个价格上是需要成本上是有一定的提高的。所以我们又把它回归到一个正常的商业价值上来。长期靠低价的竞争,也不利于整个行业的发展。所以这是我们的一个考量吧,也让我们能够持续在商业化的路径上有一个很好的良性闭环,不断地去优化模型的能力,能够持续地给大家提供更好的模型和token服务。
主持人(杨植麟):非常好的这个分享。其实因为现在有这个开源模型,然后跟这个推理算力开始形成一个生态?各种各样的开源模型,可以在各种各样的推理算力上,去给用户提供更多的价值。随着token量的爆炸,也逐渐从训练时代变成了这个推理时代。所以想请教一下夏立雪,就是说从Infra的层面,这个这个推理时代,对于这个无问芯穹来说,它意味着什么?
当然,我们也在跟很多高校跟院所也在合作,我们其实一直都在思考一件事情,就是AGI时代需要的基础设施,它会是什么样子的?我们怎么能够一步步地在这个过程中去实现它和推演它?我们现在也是做好了充分的准备,也看到了短期、中期和长期不同阶段我们需要解决的问题。
那当前眼下的一个问题,其实就是刚刚大家在聊到的,现在整个token这样的暴增,对于我们的系统效率带来了更大优化的需求,包括价格的增长,也是大家在这个需求下的一种解决方式。
我们其实一直以来都是从这种软硬件协同的方式来去做布局和解决的。包括我们接入了能够看到的几乎所有种类的这种计算芯片,我们把国内的十几种芯片和几十个不同的算力集群都给统一连接起来。这样我们能够去解决AI这样一个系统中,对于算力资源的一个紧缺的问题。当资源不足的时候,最好的办法就是:第一,把能够用的资源都用起来;第二,让每一个算力都用在刀刃上,让每一个资源都发挥出最大的转化效率价值。
所以在这个时代,我们在当前要解决的就是,怎么能够去进一步地打造一个更高效的token工厂。
为此,我们做了很多的优化,包括让这个模型和硬件上的各种显存进行最优质的适配,包括我们也在看,会不会在最新的模型结构和硬件结构下进行一些更深度的化学反应。我们打造了一个标准化的token工厂,面向Agent的时代,我们认为Agent更像是一个人,我们能够交给他一个任务。
我其实很坚定地认为,当前的很多云计算时代的设施其实是为服务一个程序、服务一个人类工程师所设计的,而不是为AI设计的。有点像我们做了一个基础设施,然后它上面有一个接口,这个接口是为人类工程师做的,然后在上面要再包一层再去接入Agent。那这种方式其实是用人的操作能力限制了Agent的发挥空间。
我举一个例子,比如Agent能够做到秒到毫秒级别去思考和发起任务,那这件事情其实在我们之前其实是没有做好这个准备的,因为人类大概发起的任务是分钟级别的。那我们这样的一些功能其实是需要进一步的能力,我们将它称作真正的云原生Agent Infra,我们需要打造一个更智慧化的token工厂,这是我们无问芯穹现在正在做的事情。
从更长远的未来,就是真正AGI的时代到来的时候,那我们认为连基础设施都应该是一个智能体。就是我们认为我们自己这次打造的这套工厂本身也应该是一个能够自我进化、自我迭代的。而它能够形成一个自组织,然后相当于它有一个CEO,这个CEO是一个Agent,他可能是一个Claude在管理整个基础设施,然后根据他的AI客户的需求,自己去提需求迭代自己的基础设施。然后这样AI和AI之间才能够去更好地形成耦合。
所以,我们也在做一些比如我们能够让Agent和Agent之间更好地通信,然后做cash tocash这样一些复制的能力。所以我们其实一直都在思考就是基础设施和AI的发展不应该是一个隔离的状态,而是应该产生非常丰富的化学反应。那这件事情才是我认为真正的做到所谓的软硬协同,做到这种算法和基础设施的协同。这也是无问芯穹一直想实现的一个自己的使命。谢谢。
主持人(杨植麟):接下来想问问福莉。小米最近也是通过发布新的模型,包括开源一些背后的技术,我觉得对这个社区做出了很大的贡献。所以想问一下,小米在做大模型方面,你觉得会有什么独特的优势?
罗福莉(小米MiMo大模型负责人):我觉得,我们先抛开小米在做大模型方面有什么独特优势,这个话题我更想谈一下,中国做大模型的团队在做大模型上的一个优势。我觉得这个话题更具备更广泛的一个价值。
其实在大概两年前,我看到,中国的基础大模型团队已经在开始了一个非常好的突破。这个突破叫做我们在怎么在有限的算力,尤其是在一些为互联带宽受限的一些算力的情况下,怎么去突破这些低端算力的限制,然后去做一些看似是为了效率妥协的一些模型结构的创新。这个变革是我们怎么在算力一定的情况下,去发挥算力最高的智能水平。
虽然在今天我们其实我们自己的国产芯片也好,尤其是推理芯片以及我们的训练芯片,其实是不再受这个限制,但是我们能看到在这样限制的情况下,催生了我们对于更高的训练效率、更低的推理效率的模型结构的全新的探索。就像最近的这种Hybrid的Spas或是LinearTuning的结构,DSA、NSA,然后Kimi也有KSA,然后小米也有新的面向下一代结构的High Spas的结构。这是区别于MiMo v2这一代结构,我们面向于Agent的这个时代去思考的,如何在Agent的这个时代,我们去做更好的模型结构创新。
我为什么觉得结构创新是如此的重要?是因为我们其实刚刚探讨到OpenClaw这个话题。OpenClaw其实大家如果真实使用会发现你越用越好用,越用越聪明。那么它的一个前提是你的推理的context。其实long-context是一个我们谈论了很久的一个话题,但是其实真正现在你发现能有一个模型,它在long-context的情况下表现非常好,性能非常的强劲,推理成本非常的低。其实很多模型它不是做不到比如1兆或10兆的context,而是因为它去推1兆、10兆它的成本太贵了,速度太慢了。
那么怎么能做到在这个情况下,推的成本够低、速度够快?才会有真正的高生产力价值的任务交给这个模型,从而去激发在只有long-context的情况下,去完成更高复杂度的任务。可能我们才能在这样10兆甚至100兆context的情况下,实现模型的自迭代。
所谓模型的自迭代就是它可以在一个复杂的环境里边,依靠于超长的context,然后完成对自我进化。进化有可能是对Agent框架本身的,也有可能是对模型参数本身的,我们认为long-context本身其实就是对参数的一个进化。
所以,其实怎么实现一个long-context-efficient的架构,以及怎么在推理侧做到long-context-efficient,其实它是一个全方位的竞争。除了我刚刚提到的在预训练做好一个long-context-efficient的架构,这个可能是我们一年前就去探索的一个问题。而当今你怎么做到long-context这种真实的这种长程距离的任务上的一个稳定性,和非常高上限的一个效果,这是我们现在后训练再去迭代的创新的一个范式。
我们在思考怎么去构造更有效的学习算法,然后怎么去采集到真实的1兆、10兆、100兆上下游里边,真的都具有长期依赖的这种文本,以及结合复杂的环境产生的这个trajectory。这是我们现在在后训练正在经历的事情。但是我能看到更长期的事情是,由于大模型本身在飞速的进步,由于我们有Agent的框架更好的一个加持,我们能看到就像刚刚立雪说的,我们推理需求,我相信在今年已经发生的事情是在过去一段时间内已经近十倍的一个增长,那么今年整个token的增长会不会到100倍?那么这里边其实我们又到了另外一个维度的竞争,这个竞争就是算力,或者说是推理芯片,甚至下到能源。所以我认为如果我们大家去思考这个问题,我会从大家身上学到更多。
主持人(杨植麟):非常有insight的分享。那下面想问一下黄超,因为你也开发了一些非常有影响力的Agent的项目,包括也有很多社区的粉丝。然后想问一下,你自己觉得说从Agent的Harness或者说应用的层面,接下来会有什么技术方向是你觉得比较重要,可能大家需要去关注?
黄超(香港大学助理教授&博士生导师、Nanobot团队负责人):感谢植麟。我觉得首先就是如果我们是把Agent的一些技术抽象出来,它关键几个点,比如说planning,然后还有就是memory和tool use这几个模块。
比如说从planning来讲的话,我觉得现在的问题就是还是面向于一些长程任务或者非常复杂的一些上下文,比如说500步甚至是更长的步数的,很多模型我觉得它不一定能够去做很好的planning,是因为我觉得它本质上可能不具备这样的一个隐性的知识,特别是在一些很多一些垂直领域。这块可能planning我觉得未来可能是需要去对于很多把已有的各种一些比如复杂任务的知识,把它固化到模型里面去做,这块我觉得可能会是一个点。
当然其实从memory来看的话,我觉得memory带给我们的一种感受就是好像它永远都会存在着一个信息压缩不准确,包括搜不准这样一些问题。我觉得这是整个memory的挑战。然后现在包括你的整个长程任务的体现,还有一些复杂场景的话,其实memory就会暴增,这其实是带来一个对memory的压力。但是现在其实包括像各类龙虾(OpenClaw),其实大家都采用的是最简单的一些像文件系统,这样markdown格式的一些memory,通过我们是否去共享一些文件这样的方式来去做。
我觉得其实未来memory应该是做类似于会走向一些分层的设计,包括如何去更加地让memory做得更通用。因为其实老实讲,现在我觉得整个memory机制其实很难做到很通用。因为比如coding场景的、deep research的、多媒体领域的,其实它的整个数据的模态差别会很大。如何去对这些memory进行很好的检索,更高效地利用,我觉得这个永远是在做一个tradeoff。
然后当然另外的一点就是说,现在其实龙虾让大家对于创建Agent的门槛大幅降低之后,其实未来可能不止一个龙虾,未来可能每个人会拥有一群龙虾。
在这样一群龙虾相比一个龙虾,那它的上下文暴增,我觉得大家可以想象会非常的大。我觉得这个也是带给memory的一个压力。现在其实还没有一套很好的机制如何去管理这种一群龙虾带来的上下文。因为这个我们感觉特别是对于复杂的coding、科研发现这种,我觉得这个其实带给不管是模型还是整个的Agent的一个架构,其实都是压力挺大的。然后对于整个tool use这块的话其实就是skill。现在skill的话我觉得存在的问题,首先就是现在看似确实会有很多skill,但是高质量的skill我们觉得是比较少的。低质量skill会很影响整个Agent完成任务的一个完成度。然后,skill很多时候也会存在一些恶意注入的问题。所以我们觉得从tool use这块的话,我觉得可能得需要靠整个社区,然后来去把怎么样子把整个skill发展得更好,甚至如何去通过这种在执行过程中去进化出来一些新skill。所以我觉得这个可能是整个不管是从planning、memory还是skill里面,我们觉得当下Agent的可能存在的一些痛点和未来可能会潜在的一些方向。
03
未来12个月内的发展趋势:生态、自进化、可持续
主持人(杨植麟):那最后我们来一个开放式的展望,所以想请各位用一个词来描述一下,接下来12个月大模型发展的趋势以及你的期望。那这次我们先从黄超这边开始。
黄超(香港大学助理教授&博士生导师、Nanobot团队负责人):我感觉12个月在AI看起来应该好遥远,都不知道12个月之后会发展成什么样子。
首先我感觉可能从我这边的话,我感觉一个词应该是“生态”吧。我觉得未来其实现在龙虾让大家这么活跃了,但是我觉得未来Agent真的要去从真正的个人出手,特别是转换我们打工的人,我觉得还是很重要的。
现在大家很多时候玩龙虾也是一个新鲜感,可能是觉得好玩。但是我觉得,未来可能真正得让龙虾们真的沉淀下来,真的应该是成为大家的一个搬砖的工具,或者是成为真正的一个Co-worker这样一个状态。所以我觉得这块的话可能真的是需要整个生态的努力,包括整个开源这块其实就是一个很重要的,把所有的相关的一些技术探索,然后包括整个模型的很多技术都看出去之后,就会需要整个生态大家一起来共建,不管是对于这种模型的迭代,还是对于这种Skills平台的迭代,还有各种工具的。我觉得这块都需要去更好地去面向龙虾去创造更好的生态。
我自己感觉比较明显的就是,未来的很多软件,包括现在有了龙虾,大家又会再考虑一个问题,就是未来软件是不是还是会给人用的吗?我们相信可能未来大部分很多的软件,都不一定会是面向人类的。因为人类是需要GUI,但可能是面向Agent原生的去使用的。那这样我感觉一个比较有趣的,就是人只会去使用让自己快乐的GUI,有可能会有这样的一个感受。所以我觉得现在整个的生态,又从不管是GUI还是MCP又转到了CLI这样的一个模式。所以我觉得这个就是需要一个整个生态,就需要生态去把不管是软件系统,还是我们的整个的这种数据,还是整个的这种就是各种的一些各种技术,其实都需要把它变成Agent原生化Agent Native的模式。这样能够才能让整个的这种Agent的发展可能会更加丰富。
罗福莉(小米MiMo大模型负责人):我觉得把这个问题说想到一年,我觉得非常有意义。如果说要用一个词来描述接下来一年,我觉得AGI历程里边最关键的一个事情的话,我认为会是自进化。虽然这个词它是一个非常有点玄幻的一个概念,我觉得在过去一年大家也多次提到,但是我也是最近才对这个词有了一个更深的一个体会,或者说具体自进化这个事怎么做,会有一个更务实的一个实操可行的方案。
其实我们之前在Chat的那个范式下,根本没有发挥出来这个预训练模型它的上限。然后这个上限现在是被Agent的框架给激活到了。我们现在触到了它可能当它执行更长时间的任务的时候,然后我们发现这个模型它可以自己去学习和进化。很简单一个尝试就是说,当你在限额的一种框架里边给它叠加一个可以verify的这样的一个条件限制,然后再给它设置一个loop,然后让这个模型就不停下来持续去迭代优化这个目标。我们就能发现这个模型会持续拿出更好的方案。如果这样的一种自进化能持续,现在其实已经能跑一两天了,其实国内的模型基本上能跑一两天了。当然跟任务的难度有关。我们发现它在一些科学研究上,比如去探索一个更好的模型结构,然后因为模型结构它有评估标准,比如我们看更低的PPL,这是一个评估标准。然后在这种很确定的任务上,我们发现它已经能自主地运化和执行两三天了。
从我的角度上来看,我觉得自进化是一个唯一可以创造一个新的东西的地方。它不是去替代我们现有的人的生产力,而是说它是像顶尖的科学家一样去探索出来这个世界上没有的一个东西。然后我其实在一年前,我会觉得这个时间历程会拉大三到五年。但是也就是在近期,我会觉得这个时间历程确实我们应该缩小到最近一到两年。可能我们就可以让大模型叠加一个非常强的自进化的一个Agent的框架,实现对于科学研究的一个至少成指数级的一个加速。
我最近已经发现,我们做大模型研究的同学,基本上其实它的workflow是非常不确定的,是高度创造力的。然后其实我们发现借助Claude Code加非常顶尖的模型,然后基本上已经能够加速我们自己的研究效率近10倍了。所以我很期待这样的一种方式,辐射到更广的学科和领域。然后我觉得自进化是非常重要的。
夏立雪(无问芯穹联合创始人兼CEO):我的关键词叫可持续投资。因为我也看到了现在整个发展还在一个长期持续的一个过程中,我们也希望它是能够有长久生命力的。这里边我们作为技术设施角度看到的一个很大的问题,就是我们的资源终究是有限的。那就像我们当年在讲可持续发展一样,我们现在作为一个token工厂,能否给大家提供持续稳定,然后大规模能够用起来的这些token,让我们顶尖的模型真正能够继续为更多的下游去服务,是我们看到的一个很重要的问题。所以我们现在也是需要的,就相当于把整个的视角放宽到刚刚说到的整个生态,从最早的能源转化到算力,然后再转化到token,最终再转换成GDP,这样的一个链路能够去进行一个持续的经济化的迭代。
包括我们其实不止在把国内的各种算力用起来,也在把这些能力输出到海外,让全球的资源都能够进行打通和整合。
我也认为这个可持续其实也是想把我们中国特色的token经济学给做起来。因为其实我们在之前的时代,我们是叫Made in China,我们会发现我们能够把中国低价的这种制造能力,然后变成好的商品输出到全球。我们现在想做的就是有点像AI Made in China,就是我们能够把中国的这些能源上的优势,然后通过这些token工厂,可持续地转化成为优质的token输出到全球。成为一个世界的token工厂,这是我想要在今年看到的,整个中国给世界的人工智能带来的价值。
张鹏(智谱华章CEO):我就简单说一点,未来12个月面临的最大的问题可能就是算力。因为刚才说到所有的技术,包括智能体框架让很多人有很好的创造力,效率提升10倍。但前提条件就是大家能够用得起,用得起来。你不能因为说算力不够,一个问题提出去,让他思考半天,你不给我答案,这个肯定是不行的。
也是因为这样的一些原因,可能甚至连我们研究的进展,包括很多想要做的一些事情其实都受阻了。前两年,我记得是张亚勤院士应该也是中关村论坛上说“没卡没感情,谈卡伤感情”。我就今天又到了这个地步了。但情况又不一样了,就是你刚才讲的,就是可能我们又到了推理的阶段。转向推理阶段是因为需求正在爆发,十倍百倍的爆发。那也就是说,过去十倍,其实需求是一百倍。那还有很大量的需求没有满足,怎么办?我们当然可以一起来想想办法。
主持人(杨植麟):感谢各位的精彩分享,谢谢大家!排版 | 赖梦茹




夜雨聆风