2026 年 4 月,AI 圈到底发生了什么
四月份的 AI 行业属于那种”你要是出差一周不看新闻,回来就跟不上了”的状态。GPT-5 正式放开、DeepSeek 发了万亿参数的 V4、Anthropic 和阿里各自更新了旗舰模型、月之暗面交出了一份超出预期的答卷。更值得注意的是技术叙事层面的变化:整个行业对”AGI 怎么实现”这件事,开始形成一些以前没有过的共识。
大模型:四月混战
过去几年 AI 行业的节奏大概是一年一两次大更新,2026 年 4 月直接变成一周一个。
GPT-5
OpenAI 4 月正式向所有用户开放了 GPT-5。这次不是小版本迭代,是自 GPT-4 以来最大的一次跳跃。
最显著的变化:思考能力内置了。以前想让 AI 深度推理得专门去调 o 系列模型,现在 GPT-5 自己就能想,而且想完还能快速给结果,不用在”聪明但慢”和”快但浅”之间纠结。
开发者圈子更兴奋的是另一件事:GPT-5 几句话就能生成可直接用的前端 UI 界面,而且支持连续工具调用。简单说就是它不只能回答你,还能一步步帮你操作——查资料、调接口、处理数据,串起来做。
OpenAI 自己给的定位是”迄今最智能、最快、最实用的模型”。这话他们每代都说,不过这次倒不算太夸张。
DeepSeek V4
如果说 2025 年初 DeepSeek-R1 是一颗照明弹,V4 就是正式炮火覆盖了。
几个数字:1 万亿参数,100 万 tokens 上下文(够读完一本长篇小说),全栈适配国产芯片。量化版本甚至能在一张消费级 RTX 显卡上跑推理。你家游戏电脑可能就能跑一个万亿参数模型,这在两年前是完全不敢想的。
配合百亿美元级融资,DeepSeek 已经从那个”以极低成本震惊硅谷的开源新锐”变成了正经的全球头部选手。当然,能不能坐稳这个位置还得看后面几个季度的表现。
Claude Opus 4.7
4 月 16 日 Anthropic 发了 Claude Opus 4.7,没怎么高调宣传,但开发者群里已经传开了。
这个版本在复杂软件工程任务上的提升确实明显,尤其是那种需要长时间持续运行的编程项目。几个新功能值得一提:跨会话记忆(它能记住你上次聊了什么)、支持约 375 万像素的图片理解、新增 xhigh 推理层级、以及一个叫 /ultrareview 的代码审查命令。
同期放出的还有 Claude Mythos Preview,号称”最具对齐性的模型”,说白了就是最安全、最听话的版本。
不过 4 月也有一堆用户在投诉 Claude 性能下降。有人分析是算力紧缺导致了模型降质。这件事挺值得关注的:再好的模型,如果稳定性保证不了,商业价值就要打折。峰值表现和日常体验是两码事。
Qwen3
阿里 4 月 29 日开源了 Qwen3 系列,一口气放了 8 款模型,2 个 MoE 加 6 个 Dense,从轻量到旗舰全覆盖。
旗舰 Qwen3-235B-A22B 的参数量只有 DeepSeek-R1 的三分之一左右,但多项基准上打平甚至反超。
比较有意思的设计是”混合推理模式”:深度思考和快速回答可以无缝切换,不用手动选模型。另外支持 119 种语言。
截至目前阿里千问开源模型总数突破了 400 个,Hugging Face 上全球第一。不管你对阿里这家公司怎么看,开源这件事他们确实是实打实在做。
Kimi K2.6
月之暗面 4 月 20 日发了 K2.6 并开源,官方定位很直接:迄今最强的代码模型。长程编码能力对标 GPT-5 系列水平。
考虑到月之暗面的资源体量跟 OpenAI、Google 完全不在一个量级,这个成绩相当可以了。杨植麟之前在英伟达 GTC 2026 上公开说过他们押注 Token 效率,就是用更少的算力干更多的事。K2.6 算是给这个路线交了一份阶段性答卷。
相比其他家,Google 4 月相对安静。3 月刚出了 Gemini 3.1 Flash Live 主打实时对话,4 月中旬做了一次 Gemini Drop 更新。
但更大的动作应该留在后面了。Gemini 4 和 Veo 4 大概率会在 Google I/O 2026 上正式亮相,到时候再看。
AGI 方向:不再是”预测下一个词”了
大模型发布只是表面热闹,更值得注意的是底层叙事的变化。
过去几年所有大模型干的事情本质上一样:预测下一个词。你给它一段话,它猜接下来最可能出现什么词。简单粗暴,效果惊人,但天花板也越来越明显。
2026 年行业开始集体转向一个新说法:Next-State Prediction,预测世界的下一个状态。
区别在哪?旧范式的 AI 像一个读遍了所有书的文科生,聊什么都行,但你让它理解”推一下杯子会倒”这种物理常识,它就够呛了。新范式想让 AI 理解的不只是语言规律,而是物理世界的因果关系:力、运动、空间、时间。
支撑这个方向的技术叫”世界模型”,你可以理解为 AI 脑子里装了一个物理模拟器。它能做假设推演(What-If Reasoning):如果我这么操作,世界会变成什么样?当前纯文本 AI 几乎做不到这件事。
智源研究院的”悟界多模态世界模型”已经完成了技术可行性验证。技术层面用的是 Diffusion Transformer 架构处理高维视觉数据,训练素材中视频数据的比重大幅上升。
这个方向是不是真的通向 AGI?没有人能百分百确定。但至少在 2026 年,全球主要的 AI 实验室都在往这个方向投入资源。
各家大佬怎么看 AGI 时间线
Anthropic 的 Dario Amodei 最激进,觉得可能就一两年的事。Musk 也差不多,说 2026 年就要做到”超越全人类集体智能”。Sam Altman 稍微谨慎一点,给了 2027-2028,但他去年底已经放话说”AGI 其实已经悄悄到了”。Google DeepMind 的 Hassabis 觉得 5-10 年更靠谱,而且他坚持认为单一模型不够,需要多系统协作。Zuckerberg 干脆说 AGI 不是 Meta 的优先目标,他更在意开源生态。最冷静的是 Yann LeCun,直接说”几十年”,认为现在 Transformer 这条路根本走不到 AGI,需要全新架构。
今年达沃斯论坛上 Amodei 和 Hassabis 当面辩了一场,一个说一两年,一个说五到十年,谁也没说服谁。但有一点两人倒是一致:世界模型是绕不过去的路。
中国这边的声音
1 月的 AGI Next 峰会上,几个观点印象比较深。
智谱的唐杰说了一句挺到位的话:”Chat 范式的竞争已经基本结束,下一步是走向做事。” 这句话概括了今年整个行业的转向。
杨植麟说”Scaling Law 本质是把能源转化为智能”,但也强调光堆算力不行,数据质量和价值判断得跟上。
张钹院士直接指出当前系统在因果逻辑上有根本性的缺陷,AGI 必须有”可执行、可检验”的标准。这话不太好听但确实是实情。
阿里的林俊旸给了一个冷静得有点扎心的判断:”未来 3-5 年中国做到全球领先的概率大概 20%”,竞争重心不在应用层,在底层架构和生态。
智能体:AI 开始”干活”了
AGI 是远处的灯塔,智能体是眼前能走的路。
新华社给了 2026 一个标签:”智能体爆发年”。这个判断不算夸张。以前的 AI 是个顾问,你问它才答。智能体更像个员工,你给目标,它自己拆任务、调工具、执行操作、检查结果。
4 月这个领域有三件事比较突出:
Claude Opus 4.7 实现了跨会话长期记忆。听上去是个小功能,但影响很大。没有记忆的智能体等于每天都是新入职第一天,什么都得重新交代。有了记忆才有连续性,有连续性才有可能真正替人干活。
具身智能在加速落地。就是有”身体”的 AI,机器人。从实验室往真实工业和服务场景走。中国目前被评为全球这个方向的第一梯队,已经纳入国家产业战略了。不过坦白说,在开放环境下的实际表现和宣传之间还有不小的差距。
多 Agent 协作开始标准化。一个 AI 干不了的事让一群 AI 合作干,但前提是它们得有统一的通信协议。这个方向上 MCP 和 A2A 两个协议正在铺开。
在所有智能体应用里,Coding Agent 是落地最扎实的。GPT-5 的连续工具调用、Claude Opus 4.7 的长程编码、Kimi K2.6 的代码能力,全指向同一件事:AI 不只帮你写代码片段了,它在试图独立完成从需求到实现的完整流程。
字节豆包模型 API 日均调用量 50 万亿次,其中相当一部分来自编程和自动化场景。
算力:台面下的角力
模型越做越大,Agent 越来越多,这一切最终要落在算力上。
华为今年动作密集。昇腾 950PR 芯片在合作伙伴大会上亮相,超节点计算集群在 MWC 2026 上首次面向海外。信号很明确:华为算力不只服务国内了。
DeepSeek V4 全栈适配国产芯片这件事,意义不限于 DeepSeek 自己。它证明了国产算力能撑起万亿参数级别的模型训练。不管你怎么看华为,这对整个中国 AI 产业链的信心提振是实实在在的。
目前 AI 推理芯片基本是四家在打:英伟达、谷歌、高通、华为。竞争焦点已经不只是算力数字了,易用性和能效比越来越被看重。
但绕不开的现实是:国内大量训练芯片仍然依赖进口。美国出口管制这把刀一直悬着,什么时候落下来谁也说不好。高质量中文训练数据的缺口同样没解决。DeepSeek V4 的国产芯片适配是一条突围路径,但要说已经突围成功,还为时过早。
产业侧面:钱在往哪流
几个数字:中国 AI 核心产业规模预计破 1.2 万亿元,同比增长近 30%。AI 企业超过 6000 家。Google 向 Anthropic 投了 400 亿美元。DeepSeek 融资百亿美元级别。月之暗面估值 48 亿美元完成 C 轮。
钱在涌入,但钱涌入不代表大家都赚到钱了。
几个趋势值得注意:
MoE(混合专家)架构正在变成新模型的标配。Qwen3、DeepSeek V4 都用了这个设计。好处是模型参数量很大但每次推理只激活一小部分,计算成本大幅下降。”大模型”不再等于”大开销”了。
开源和闭源的差距在迅速缩小。Qwen3、Kimi K2.6 这些开源模型的表现已经逼近闭源顶级产品。这对行业格局的影响可能比任何单款模型的发布都大。当开源不再是廉价替代品,闭源模型的定价权和护城河就会被侵蚀。
AI 开始往物理世界渗透。制造业、医疗、城市治理,工信部密集推”人工智能+”政策,目标是赋能六百万家以上的工厂。方向没问题,但具体落地质量参差不齐。有些场景确实在用 AI 解决真问题,有些纯粹是为了拿补贴贴个标签。
该担心什么
Anthropic 的 Claude 4 月被大量投诉性能下降。如果这真的是算力紧缺导致的降质,那问题其实挺严重的:用户花钱买的是稳定可靠的服务,不是一个时灵时不灵的工具。能力天花板可以慢慢提,稳定性不行就是真的不行。
安全方面,AI 声音克隆(Taylor Swift 事件又被拿出来讨论了一轮)、深度伪造、系统性欺骗……这些风险正在从零星个案变成结构性问题。智源的 2026 趋势报告里明确说了,风险已经从”局部滥用”升级到”系统性威胁”。但整个行业在安全上投入的资源和注意力,跟这个威胁等级是不匹配的。大家都在抢着发模型、做产品,安全投入的优先级排不到前面。
Musk 和 Altman 的官司还在扯,围绕 OpenAI 营利化吵得不可开交。这场争论表面上是两个人的恩怨,实际上牵扯的问题很根本:AI 这么大的事,最终由谁来主导?以什么规则来主导?目前看不到答案。
所以呢
2026 年 4 月的 AI 行业处在一个挺有意思的位置:技术确实在快速进步,方向上也出现了一些前所未有的共识(世界模型、智能体、从聊天到做事),但同时不确定性也在增加。算力受限、安全治理缺位、商业模式还没跑通、AGI 时间线众说纷纭。
唐杰说”Chat 范式的竞争已经基本结束”,这个判断我觉得是对的。但下一个范式的竞争才刚开始,而且会比聊天这个阶段复杂得多。谁能做出真正可靠的、能干活的 AI 系统,谁就能吃到下一波最大的红利。
至于 AGI 明年到还是十年后到,老实说这个问题可能不如另一个问题重要:AI 今天能帮你做什么,明天又能多做什么?盯着这个问题,比猜时间线有用得多。
信息来源:OpenAI、Anthropic、Google、智源研究院、清华大学、阿里巴巴、DeepSeek、月之暗面等公开报道和技术文档。截至 2026 年 4 月 29 日。
夜雨聆风