4月AI复盘:模型走下榜单,产业开始算细账


4月的AI行业,关键词不是“震撼发布”,而是“落地压力”。
这些AI大事件共同指向一个朴素变化:AI公司开始被迫回答更细的问题——模型怎么部署,任务怎么完成,成本怎么算,风险怎么兜,客户为什么续费。
过去一年,很多AI叙事停留在“能力外溢”。
4月以后,行业的关键词悄然转向了“成本核算”——这不浪漫,却更贴近真实的产业逻辑。
Google DeepMind在4月初发布Gemma 4。官方信息显示,31B版本位列Arena AI开放模型第三,26B版本位列第六;Google强调Gemma 4以更低硬件开销取得前沿能力,部分模型可在更轻量的设备和本地环境中部署。

这里有一个值得注意的转向:开放模型过去喜欢证明“大厂能做的,我也能做”;现在的卖点越来越接近工程部门的语言:显存占多少,推理贵不贵,本地能不能跑,私有部署难不难,数据能不能留在自己手里。
很多行业客户并不需要一个随时在线的“超级大脑”。它们需要的是:能部署在内网,能接企业文档,能服务稳定流程,费用别像水龙头坏了一样往外流。Gemma 4这类模型的价值,就在这种不太显眼的地方。
端侧AI、本地AI、企业私有化,长期看不会是一个小支线。云端巨型模型继续负责拉高天花板,小模型和开放模型会负责铺开地面。
一个往上抬,一个往下沉。谁都替不了谁。
OpenAI在4月16日发布GPT-Rosalind,面向生命科学研究,覆盖生物学、药物发现、转化医学等方向,能力包括证据整合、假说生成、实验规划和科研工具调用;同时推出Codex生命科学研究插件,连接50多个科学工具和数据源,并与Amgen、Moderna、Thermo Fisher Scientific等机构合作。

生命科学不是“通用问答”的换皮场景。模型在这里要读论文,也要接数据库;要给思路,也要能跟实验工具协同;要会生成文字,也要知道假说、证据、实验条件之间的约束。
GPT-Rosalind说明OpenAI在高价值行业里选了一条更深的路径:模型嵌进研发流程,而不是只停在助手界面。
一天后,OpenAI又被曝计划未来三年向Cerebras采购超过200亿美元AI算力,并可能获得后者最高约10%的少数股权;另有约10亿美元将支持Cerebras建设面向AI产品的数据中心。
这两笔动作放在一起,OpenAI的轮廓变得更清楚:前端做行业入口,后端锁算力供给。模型公司正在长成一种新的组织形态,既像软件公司,又像云服务商,还带着一点基础设施运营商的影子。
这会给后来者很大压力:只做模型,空间会越来越窄;只做应用,也容易被底座挤压。
高价值赛道最后拼的是“模型+工具+数据+算力+客户”的组合密度。
国内4月最值得跟的模型进展,主要集中在长程智能体。
智谱GLM-5.1在4月7日发布,官方材料称其面向agentic engineering和长程任务,SWE-Bench Pro得分58.4,超过GPT-5.4、Claude Opus 4.6、Gemini 3.1 Pro等模型。

月之暗面随后发布Kimi K2.6,强调开放模型、长程执行、coding与agent swarm能力,官方页面将其定位为支持复杂工作流和多智能体协作的模型。

长程任务对模型很残酷。短问短答可以靠语言能力掩盖很多问题;任务一拉长,缺点会全部冒出来:目标漂移、上下文混乱、工具调用失败、错误累积、结果不可接手。软件工程场景尤其适合做压力测试,因为代码会编译,测试会报错,日志不会给面子。
所以GLM-5.1、Kimi K2.6这类模型的看点,不在“写代码更快”这么简单。它们把评估对象从一次回答,拉到一段过程:能不能拆任务,能不能保持状态,能不能处理失败,能不能留下能被人接管的结果。
企业不会长期为“回答得好”付费。企业更容易为“交付成本下降”付费。这个区别很小,但决定了很多AI产品能不能活过试用期。
4月下旬,DeepSeek发布V4,并针对华为昇腾芯片进行适配;V4提供Pro和Flash两个版本,支持百万token上下文,采用MIT许可开源。随后阿里、腾讯、字节等大厂加速争抢华为昇腾950PR芯片,华为计划2026年出货约75万颗950PR,并已在4月启动量产。

这组信息值得放在一起看。一个开源模型、一个国产芯片平台、几个头部云和互联网公司,开始围绕同一套供给体系形成联动。
模型发布不再只是模型团队的事情,芯片供给也不再只是硬件公司的事情。二者之间多了推理框架、云平台、开发工具、客户场景这些中间层。
国产算力过去经常陷在两个极端:要么被过度期待,要么被过度低估。4月的变化更务实:先让模型跑起来,再让云平台供出来,再让大厂业务试起来,再看成本和稳定性。这个过程比喊“替代”慢,也比单纯堆指标难,但它更接近产业链形成的方式。
DeepSeek V4和昇腾950PR后面还有不少问题:产能、良率、软件体验、迁移成本、开发者习惯、长上下文推理成本。每一项都可能拖慢进度。可一旦大厂开始把业务往上迁,产业链会被迫往前走。
很多过去停留在“适配清单”里的事情,会变成客户现场的日常工单。
字节Seed团队在4月发布Seed3D 2.0,官方介绍称其在几何、纹理和材质生成方面取得SOTA表现,提升了复杂结构、材质细节和可用性。

3D生成和文生图不在一个工业层级。图片生成可以停留在视觉表达,3D资产要进入后续生产链:建模、材质、绑定、动画、引擎适配、二次编辑。对游戏、影视、虚拟拍摄、工业仿真而言,3D资产的质量决定后面能不能继续加工。
Seed3D 2.0这类模型如果持续进步,内容行业的生产环节会被改写。美术外包、游戏资产、展陈空间、虚拟角色、广告视觉,都会出现“先生成,再精修,再入库”的工作流。
麻烦也会同步增加。
3D资产一旦进入商业使用,版权边界会比平面内容更复杂。训练素材来源、风格借鉴、品牌元素、角色相似度、资产授权,都会变成争议点。
内容产业不会因为AI生成变快就自动变便宜,很多成本会从制作端转移到审核、合规和资产管理端。
4月29日,中国暂停发放新的自动驾驶许可。背景是百度Apollo Go在武汉出现车辆异常停滞事件,随后监管要求加强审查;自动驾驶企业新增项目、新车队和新城市扩张受到阶段性影响。

这条新闻不该只放在自动驾驶栏目。它对整个AI产业都有提醒作用:AI一旦进入真实世界,问题不再是“体验差一点”。
车辆停在路上,会影响交通;医疗建议出错,会影响患者;金融Agent误操作,会影响资产;政务智能体乱执行,会影响公共服务。
很多AI公司喜欢讲“闭环”。真正难的是异常闭环:系统错了谁发现,谁接管,谁恢复,谁复盘,谁负责。这个问题没有写进产品架构,后面就会被监管和客户逼着补课。
模型能力开始转向过程能力。单轮问答还能继续进步,但产业场景更关心一段任务的完成质量。任务拆解、工具调用、状态保持、失败处理、结果交付,会变成模型评估的日常指标。
算力供应进入绑定阶段。OpenAI与Cerebras,DeepSeek与昇腾,都是同一种趋势的不同版本。芯片、模型、云平台之间的关系会更紧。未来几年,算力不是采购清单上的一行,而是产品路线和商业边界的一部分。
行业模型的商业回报会更早出现。GPT-Rosalind这类模型面向专业研发流程,客户预算清晰,应用环节明确,价值衡量也更直接。通用入口继续争夺流量,专业模型争夺高客单价和深流程。
开源开始带工程包袱。只放权重的开源影响力会减弱。带着部署文档、工具链、芯片适配、推理框架、评测基准和社区案例一起释放,才会形成长期开发者关系。
安全治理会提前进入产品设计。自动驾驶牌照暂停是一个信号。医疗、交通、金融、政务、工业等场景,AI系统必须把日志、权限、接管、回滚、审计做成基础能力。安全不能靠上线前补一份说明书。
企业做AI,项目起点最好从流程开始。先选一个具体流程,写清楚输入、输出、工具、权限、验收、异常处理,再考虑用什么模型。很多失败项目不是模型太弱,而是业务流程本身没有被重新设计,AI被硬塞进去,最后变成“高级搜索框”。
应用公司要把交付指标做细。客户不需要听“智能体很强”,客户要看工期缩短多少、人工接管减少多少、错误率下降多少、知识库更新是否及时、系统出错能否追溯。没有这些指标,产品很难从试用走到复购。
地方城市布局AI,不宜把资源过度集中在“大模型总部”和“超大算力中心”这类高举高打事项上。
4月的行业变化说明,很多机会藏在更细的位置:推理服务、模型压缩、芯片适配、数据治理、行业评测、AIGC版权、智能体安全、工程运维人才。它们没那么适合发布会,却更容易形成产业黏性。城市可以把优势场景做得更深。
文创视听重点看3D资产、视频生成、短剧工业化和版权合规;医疗健康重点看科研助理、临床文档智能、可信医疗Agent;工业软件重点看长程Coding Agent、国产算力适配、推理服务;城市治理重点看可审计、可接管的政务智能体。
城市不必把每个AI热点都接一遍,几个场景做透,比十几个概念铺开更有用。
4月的AI行业,能看出一个很现实的变化:漂亮的模型曲线还在,但产业开始盯着另外几张表——成本表、任务表、风险表。
成本表决定项目能不能长期跑;任务表决定AI有没有进入真实流程;风险表决定系统出了问题还能不能收回来。
接下来,很多AI公司的分水岭大概就在这里。会讲故事的公司仍然不少,会把这三张表做清楚的公司,才有机会留下来。






夜雨聆风