第四章 中国AI产业重点领域发展现状
第二节 AI基础软件与算法框架
在AI技术栈的纵向链条中,基础软件与算法框架是承上启下的核心环节。向上支撑大模型与应用层的创新,向下适配芯片与算力基础设施。如果说芯片是AI产业的“心脏”,那么深度学习框架就是AI产业的“操作系统”,大模型底座则是AI能力的“发动机”。中国在这一领域的自主创新正加速推进:深度学习框架以飞桨(PaddlePaddle)为代表,稳居国内市场第一梯队;大模型底座领域,百度文心、阿里通义、智谱GLM形成了“三足鼎立”的竞争格局;众智FlagOS等统一软件栈的出现,则在更高维度上构建起衔接多元芯片与多元模型的桥梁。
一、深度学习框架
(一)AI时代的“操作系统”之争
深度学习框架是AI开发的基础设施,承担着算法开发、模型训练、推理部署的全流程支撑功能。从技术栈的视角看,深度学习框架向下调用芯片算力,向上承载模型开发,是连接硬件与应用的枢纽。因为这一枢纽地位,深度学习框架被形象地称为AI时代的“操作系统”。
全球范围内,形成规模化影响力的深度学习框架主要有Google的TensorFlow、Meta的PyTorch、微软的Cognitive Services,以及来自中国的百度飞桨(PaddlePaddle)四大玩家。TensorFlow凭借Google的生态优势和早期先发优势,在企业级市场占据重要份额;PyTorch以其动态图机制和对研究者的友好性,在学术界迅速崛起,如今已成为全球AI论文引用量最高的框架;而飞桨,则走出了一条扎根中国产业需求的差异化道路。
(二)飞桨
飞桨(PaddlePaddle,Parallel Distributed Deep Learning)是百度自主研发的产业级开源深度学习平台,是中国首个功能完备的深度学习框架。自2016年开源以来,飞桨已发展成为集核心框架、基础模型库、端到端开发套件、工具组件及社区服务于一体的综合性AI开发平台。从2012年百度开始将深度学习技术应用于语音识别等场景,到2016年正式开源,再到2025年发布飞桨框架3.0,飞桨已持续迭代十余年,形成了完整的技术生态。

在生态规模方面,截至2025年11月,飞桨已凝聚2333万开发者,服务76万家企业,创建模型数量超过110万个,稳居中国深度学习平台综合市场份额第一,与谷歌TensorFlow、Meta PyTorch形成全球深度学习框架三强格局。
(三)技术架构
飞桨框架3.0版本有五大核心技术特性,为开发者提供全方位的技术支持:
一是动静统一自动并行。用户只需在单卡程序上进行少量的张量切分标记,飞桨就能自动转换为并行训练程序,大幅降低产业开发和训练成本。这一特性使开发者能够更专注于模型和算法创新,而非复杂的分布式实现细节。
二是大模型训推一体。同一套框架支持训练和推理,实现训练、推理代码复用和无缝衔接,为大模型全流程提供统一的开发体验和极致的训练效率。
三是科学计算高阶微分。提供高阶自动微分、复数运算、傅里叶变换等能力,支持数学、力学、材料、气象、生物等领域科学探索,其微分方程求解速度比PyTorch开启编译器优化后的2.6版本平均快约30%。
飞桨的技术架构始终以产业需求为导向,在分布式训练、多硬件平台支持、跨平台部署等方面持续深耕。通过paddle/fluid/distributed/等模块实现高效的并行计算,满足大规模工业级应用需求;通过inference/模块实现跨平台部署,构建了从数据处理到模型部署的全流程工具链。
(四)产业定位
在全球深度学习框架的竞争格局中,飞桨走出独特的“产业智能化”路线,与Intel、Nvidia、华为、中国联通、中信银行等产业组织深度合作,其用户既包括产业界,也包括北京航空航天大学、中国科学院大学等学术机构,但其核心定位始终锚定于产业应用。
目前飞桨已开放覆盖多领域的工业级模型库,支持100多个经过产业实践长期打磨的主流模型,同时开源开放200多个预训练模型,官方目标是“助力快速的产业应用”。在大恒图像等企业的实际应用中,基于飞桨的工业质检解决方案检出率已达99.8%。
飞桨的产业导向既是其差异化竞争优势,也折射出中国AI发展在庞大的制造业基础和丰富的应用场景驱动下,AI技术的价值实现依赖于与实体经济的深度融合。
二、大模型底座
2026年,中国大模型底座市场已形成百度文心、阿里通义、智谱GLM“三足鼎立”的竞争格局。三家企业在技术路线、开源策略、商业模式上各有侧重,共同构成了中国大模型产业的核心支柱。
(一)百度文心
2026年1月22日,百度正式发布并上线文心大模型5.0正式版。这是一次从技术路线到工程能力、从参数规模到推理效率的全方位升级。
在参数规模方面,文心5.0以2.4万亿参数构建超大规模模型底座,是当时全球参数规模最大的开源级大模型之一。通过混合专家架构与超稀疏激活设计,激活参数比低于3%,在保障强大能力的同时实现推理效率的优化,解决了大参数模型“算力消耗过高”的行业痛点。
在技术路线上,文心5.0走出了一条与业界主流不同的路径。业界多模态大模型的主流做法是“后期融合”,用一个视觉编码器看图,用一个音频模型听声,再通过一个大语言模型来统筹。文心5.0则彻底抛弃了这一“拼凑式”方案,转而采用统一的自回归架构进行原生全模态建模,将文本、图像、视频、音频等多源数据在同一模型框架中进行联合训练。这种“原生”设计使多模态特征在统一架构下充分融合并协同优化,避免了多模态“转译”中的信息损耗。
在性能评测方面,文心5.0在40余项权威基准的综合评测中,语言与多模态理解能力超越Gemini-2.5-Pro、GPT-5-High等模型,稳居国际第一梯队;其图像与视频生成能力与垂直领域专精模型相当,整体处于全球领先水平。
在应用落地方面,百度构建了一套精密的分层模型体系。矩阵模型面向通用场景快速落地,包括文心Lite模型、视频大模型和语音大模型;专精模型面向行业应用和垂直场景,包括搜索闪电专精模型、电商蒸汽机模型、文心数字人大模型等。百度千帆平台以智能体为核心,已累计开发超130万个智能体,工具日均调用量突破千万次。在具体案例中,上海辞书出版社通过百度千帆将文心大模型引入“智慧修订”场景,辅助编辑完成严谨的事实性校对,审校效率提升3倍,准确率提升80%。
在C端应用层面,文心助手月活已突破2亿,验证了国产大模型在消费端的用户接受度和商业潜力。
(二)阿里通义
阿里巴巴通义千问系列走一条以开源生态为底座、以场景化Agent能力为核心的差异化发展道路。
开源生态:全球最受欢迎的开源模型家族。 2026年2月16日除夕,阿里正式开源了新一代通义千问大模型Qwen3.5-Plus。这已是千问连续第三年在除夕夜发布重要更新,从Qwen2.5到Qwen3,再到Qwen3.5,这个被开发者称为“卷王”的团队,选择在传统节日的节点上持续输出新的技术版本。Qwen3.5-Plus总参数3970亿,激活仅170亿,凭借“以小胜大”的架构革新,性能一举超越万亿参数的Qwen3-Max模型,部署显存占用降低60%,最大推理吞吐量可提升至19倍。在MMLU-Pro知识推理评测(87.8分)、博士级难题GPQA评测(88.4分)等基准测试中,Qwen3.5的得分高于GPT-5.2、Claude 3.5等闭源模型。API价格每百万Token低至0.8元,仅为Gemini 3 Pro的1/18。
截至2026年初,千问系列已开源近400款模型,覆盖从0.5B到480B的“全尺寸”和文本、图像、语音等“全模态”,在全球主要模型社区累计下载量突破10亿次,衍生模型数量超过20万个,成功超越美国Meta的Llama系列,成为全球最受欢迎的开源模型家族。
技术演进:从综合能力benchmark到场景化Agent能力。 2026年3月30日至4月2日,阿里巴巴通义实验室密集发布Qwen3.5-Omni、Wan2.7-Image和Qwen3.6-Plus三款模型,标志着千问大模型从通用能力导向转向场景化Agent能力导向。Qwen3.5-Omni为全模态交互模型,在215项音视频理解、识别与交互任务中表现最优,多项指标超越Gemini-3.1 Pro;Wan2.7-Image为图像生成与编辑模型,在中文生图人类偏好盲测中排名国内第一;Qwen3.6-Plus主打编程与Agent能力,在SWE-bench等编程评测中超过GLM-5和Kimi-K2.5,接近Claude系列水平,具备100万token上下文窗口,适配Claude Code、Cline等主流Agent框架,可自主拆解任务、规划路径、编码、测试并交付。
这一转变的核心是千问不再追求单一模型在MMLU、C-Eval等通用评测中的全面领先,而是针对编程、图像生成、多模态交互等具体场景,提供可直接调用、端到端交付的Agent能力。三款模型共同指向“Model as an Agent”战略重心。
商业化突破:千问APP的爆发式增长。 在C端应用层面,千问实现了跨越式增长。春节期间,超过1.3亿人涌入千问App体验AI购物,千问日活在短短三个月内飙升至7300万量级,迅速追平了豆包积累三年的身位。在所有AI订单中,近一半订单来自县城,来自三四线城市的AI买电影票订单量暴涨782倍,近400万60岁以上老年用户首次体验了AI购物。2月12日,千问发布数据显示,活动6天时间内,用户累计说出41亿次“千问帮我”,AI完成下单超1.2亿笔。
在B端商业模型上,2026年3月,阿里巴巴成立ATH事业群(Alibaba Token Hub),整合算力层(阿里云)、模型层(通义)、应用层(悟空、千问APP等),构建“创造token—输送token—消费token”闭环。三款模型发布后即接入阿里巴巴内部生产力体系——AI原生企业平台“悟空”、千问APP及编程工具Qoder于同一周完成集成,服务对象从全球开源开发者转向阿里内部有token消费需求的业务单元。Qwen3.6-Plus发布次日,其在全球模型调用平台OpenRouter的调用量升至第二位,首超免费模型以外的所有国产模型。
(三)智谱GLM
智谱华章(简称“智谱”)于2026年1月成功登陆港股,成为“全球大模型第一股”,标志着资本市场对中国大模型产业的高度认可。在技术层面,智谱GLM系列持续迭代,2026年4月8日发布的GLM-5.1模型,实现了国产大模型在核心编程能力上对海外顶级闭源模型的首次超越。
技术突破:开源模型首次追平全球顶尖闭源模型。 长期以来,全球大模型赛道存在一条难以逾越的鸿沟:开源模型与顶尖闭源模型之间存在明显的能力代差,中国开源模型更是长期被贴上“追赶者”的标签。GLM-5.1的发布打破了这一行业共识。
在最贴近真实软件开发场景的SWE-bench Pro基准测试中,GLM-5.1刷新全球成绩,实现了国产模型对Claude Opus 4.6的首次超越。SWE-bench Pro测试完全基于真实GitHub仓库的工业级软件开发任务,要求模型在真实GitHub仓库中定位并修复高难度工程Bug,是衡量模型能否胜任专业软件开发的最硬指标。一位国内AI行业资深分析师评价:“GLM-5.1此次刷新全球成绩,不仅是国产模型首次登顶,更是开源模型首次在该基准上击败全球最强编程模型,用实打实的测试成绩证明,开源模型完全可以在核心通用能力上比肩甚至超越全球顶级闭源旗舰。”
在业内最具代表性的SWE-Bench Pro、Terminal-Bench 2.0、NL2Repo三项代码评测基准综合平均分中,GLM-5.1取得全球模型第三、国产模型第一、开源模型第一的成绩。
长程任务能力:从“回答问题”到“完成项目”。 GLM-5.1的突破不仅在于编程能力本身,更在于其长程任务能力。和此前分钟级交互的模型不同,GLM-5.1能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。在METR榜单的同等评估标准下,GLM-5.1是唯一达到8小时级持续工作的开源模型,也是全球范围内除Claude Opus 4.6外少数具备这一能力的模型。
从3分钟的Vibe Coding(氛围编程)到30分钟的Agentic Engineering(智能体工程),再到8小时的Long-Horizon Task(长程任务),GLM-5.1完成了代码与工程能力步入交付级别的根本性突破。
商业模式:从价格战到性能溢价的战略跃升。 与过去一年行业深陷“价格战”的主流趋势截然相反,智谱GLM-5.1再度提价10%。调价后,GLM-5.1在Coding场景的缓存命中Token价格已接近Anthropic旗下Claude Sonnet 4.6水平。这是国产大模型首次在核心场景实现与海外头部厂商的价格对齐。智谱CEO张鹏回应称,长期依赖低价竞争不利于行业发展,调价旨在将价格拉回正常的商业价值区间:“完成一个长程任务所需要的Token量可能是回答一个简单问题时的十倍甚至百倍,价格调整本质上是价值变化的自然结果。”
从价格战、低价换量转向性能溢价,国产大模型的定价权正在悄然易主。
三、统一软件栈
(一)多元算力时代的适配难题
随着国产AI芯片的加速崛起,不同芯片厂商的编程模型、算子库、编译器各不相同,开发者面临“一芯片一框架、一模型一适配”的重复劳动困境。这一“生态割裂”问题,正在成为制约国产算力规模化应用的关键瓶颈。
(二)众智FlagOS
2026年3月,北京智源研究院联合中科加禾、中科院计算所、清华大学、北京大学、华为、海光信息、摩尔线程、沐曦股份、天数智芯、燧原科技等23家核心机构,正式发布众智FlagOS 2.0。作为面向多元AI芯片的统一开源系统软件栈重大升级版本,FlagOS 2.0率先实现对18家厂商、32款AI芯片的全场景支持,应用场景从数据中心延伸到边缘推理和机器人云边协同,是全球支持芯片种类最多的AI系统软件栈。
在算子库方面,FlagOS 2.0在原有FlagGems大模型算子库基础上,新增6大领域算子库,算子总数达到497个,构建起全球最大的多芯片算子库。
在多芯片统一编译器方面,FlagOS 2.0正式发布Triton-TLE(Triton Language Extension),这是对原有Triton语言的全面扩展,让算子开发从单一GPU架构拓展到一个兼顾高性能、高开发效率的更广阔空间。通过与华为昇腾、清微智能、ARM AIPU团队深入合作,首次发布FLIR(FlagIR)预览版,探索建立支持多芯片架构的统一中间表示层。
(三)算子自动生成与跨芯迁移平台
FlagOS 2.0发布的AI算子自动生成平台KernelGen 2.0,是面向多种AI芯片的算子生成自动化平台,覆盖算子生成、基线构建、验证测试的完整生命周期。KernelGen在英伟达上的算子生成正确性和加速比均显著超过Claude Code,在5种国产AI芯片上均获得高于95%的生成正确性,超过50%的算子性能优于芯片原生实现。
作为开源大模型的跨芯迁移与统一发布平台,FlagRelease目前已面向10家厂商的12款硬件发布了70+个开源模型实例,覆盖DeepSeek-R1、Qwen3.5、GLM-5、TeleChat3等主流模型,为每个模型、每种芯片提供统一的源代码、验证过的模型文件和开箱即用的Docker镜像。
(四)中关村人工智能开源联盟
FlagOS 2.0发布的同时,中关村人工智能开源联盟在论坛现场宣布正式发起。该联盟由智源研究院、北京大学等发起,汇聚超40家芯片、大模型、科研院所等单位,立足中关村产业优势,以“技术开源—场景驱动—产业赋能—全球合作”为战略,聚力构建自主可控AI开源生态,助力人工智能科技自立自强。联盟以众智FlagOS 2.0为核心底座,通过设立研发基金、搭建认证平台、打造工具链、举办开发者赛事等,持续推进其技术迭代与产业落地,协同共建全球领先的AI开源创新生态。
夜雨聆风