AI要闻周报(2026年4月20日-4月26日)
AI要闻周报(2026年4月20日-4月26日)
1、DeepSeek-V4正式发布:百万上下文普惠与磁盘级KV缓存引领效率革命
2026年4月24日,DeepSeek正式推出并开源其新一代旗舰模型DeepSeek-V4的预览版。本次发布不仅带来了性能的显著提升,更以其创新的技术架构和极具竞争力的定价,试图重新定义超大规模模型的应用成本与效率边界。
一、 双版本发布与核心规格
DeepSeek-V4提供两个版本:追求极致性能的 V4 Pro 和经济高效的 V4 Flash。两款模型均基于混合专家(MoE)架构,并默认支持高达100万token的超长上下文窗口,一举将超长文本处理能力推向普惠阶段。官方定位V4 Pro在Agent能力、世界知识与推理性能上处于国内及开源领域领先地位,并可媲美顶级闭源模型。
二、 核心技术亮点:效率突破的关键
V4的核心突破在于一系列旨在提升效率、降低成本的底层技术创新:
混合注意力机制:模型创新性地交错使用压缩稀疏注意力(CSA) 与重度压缩注意力(HCA)。CSA通过可训练的稀疏模式减少计算量,HCA则将Key-Value(KV)投影到低维潜空间进行压缩。官方数据显示,这套组合拳将处理单token的推理算力降至V3.2的27%。
磁盘级KV缓存存储(基于SSD):这是解决超长上下文成本痛点的关键黑科技。传统模型的KV缓存完全存储在昂贵的GPU显存中,限制了上下文长度并难以复用。V4引入了磁盘级KV缓存存储方案,将大部分缓存移至SSD等大容量存储介质中,实现大规模缓存的跨会话复用。该技术使得KV缓存内存占用仅需之前的10%,极大地降低了长对话和复杂Agent任务的内存与计算开销,为用户平衡存储与计算成本提供了灵活策略。
其他稳定与加速技术:包括流形约束超连接(mHC) 以增强深层网络的参数稳定性,以及Muon优化器来加速超大参数规模下的训练收敛。
三、 行业生态快速配套
发布当天,V4便获得了国内各AI基础设施厂商的迅速支持。中国的AI云服务商宣布首批全量上线DeepSeek-V4模型。华为宣布其基于昇腾950芯片的昇腾超级节点将全面支持DeepSeek V4。寒武纪、海光信息、摩尔线程、沐曦股份、百度昆仑芯、阿里平头哥真武、天数智芯也均宣称完成适配。
四、 测评反响:优势与挑战并存
第三方测评显示,V4在代码任务上表现出色,已跻身开源模型的第一梯队。官方自评则认为,其在知识推理上接近闭源系统但仍存差距,而在代码与Agent领域的能力已接近或超过部分闭源模型。也有行业观察指出(来自海外社区Techmeme),V4 Pro的性能相较于当前最先进的闭源模型仍有大约3至6个月的追赶距离。
五、 业界影响:重塑成本结构的Agent底座
DeepSeek-V4最直接的冲击在于其极具侵略性的定价,远低于同期闭源模型,这迫使整个行业重新思考大模型服务的成本结构。其技术路径,特别是高效率的长上下文处理和磁盘级KV缓存,为开源社区探索超大规模模型的效率极限提供了重要方向。V4通过明确的Agent专项优化和三种使用模式(常规、思考、代码),明确了自身作为“Agent时代基础底座”的战略定位,旨在让开发者能够以更低边际成本构建复杂的AI智能体应用。
2、Google Cloud Next 2026:全栈布局 Agentic AI 时代,双芯 TPU 重构算力底座美国时间 2026 年 4 月 22 日,Google Cloud Next 2026 大会在拉斯维加斯开幕,谷歌及Alphabet CEO 桑达尔・皮查伊携团队发布了覆盖 AI 智能体、算力基础设施、网络安全等领域的全栈技术升级,正式宣告企业级 AI 进入 “Agentic Gemini 时代”。大会披露,当前谷歌云 75% 的客户已启用其 AI 产品,330 家客户在过去 12 个月内单家处理超万亿 token;客户通过 API 直接调用的模型算力已达每分钟 160 亿 token,较上一季度的100 亿 token 实现大幅跃升,Gemini Enterprise 付费月活用户在 2026 年 Q1 实现环比 40% 的增长。为支撑 AI 业务爆发,谷歌 2026 年超半数的机器学习算力投资将向云业务倾斜,服务企业客户与合作伙伴。本届大会的核心发布是Gemini Enterprise Agent Platform,针对企业从 “能否构建 Agent” 到 “如何管理数千个 Agent” 的核心痛点,打造了企业级智能体的 “任务控制中心”。该平台整合了 Vertex AI 的模型开发能力,新增智能体集成、DevOps、安全治理等全生命周期功能,提供低代码 Agent Studio 可视化开发环境、升级后的图框架式 Agent 开发套件(ADK),支持主智能体向子智能体委派复杂任务;同时通过 Agent Registry、Agent Gateway 实现集中化策略管控与合规审计,为每个智能体分配加密身份标识。平台兼容 Gemini 3.1 全系、Lyria 3 等 200 + 模型,同时支持 Anthropic Claude 等第三方模型,通过 MCP 协议打通企业 ERP、CRM 等业务系统,实现跨系统的智能体协同。算力基础设施层面,谷歌正式发布第八代 TPU 双芯片架构,首次针对训练与推理场景推出专用芯片,为 AI 智能体时代重构算力底座。其中,训练优化型 TPU 8t 单 SuperPod 可扩展至 9600 颗芯片,搭载 2PB 共享高带宽内存,处理性能达上一代 Ironwood 的 3 倍,能效比最高提升 2 倍;推理优化型 TPU 8i 片上 SRAM 容量提升3 倍,单 Pod 可互联 1152 颗芯片,通过专属 Boardfly 拓扑将芯片间最大跳数从 16 跳压缩至 7 跳,大幅降低推理延迟,可低成本支撑百万级智能体的并发运行。两款芯片均适配谷歌自研Axion ARM CPU,原生支持 PyTorch 等主流开发框架。配套 TPU v8,谷歌同步推出Virgo Network超大规模 AI 数据中心光纤架构,采用两层非阻塞扁平化拓扑,将数据中心网络带宽较上一代提升 4 倍,芯片间互连带宽翻倍,单网络可连接超 13.4 万块 TPU 8t 芯片,提供 47 拍比特/ 秒的无阻塞双向带宽,同时兼容 NVIDIA 最新 GPU 实例,支撑超大规模 AI 集群的算力调度。网络安全领域,谷歌联合 Wiz 发布 AI 驱动的网络安全平台,整合谷歌威胁情报、安全运营能力与 Wiz 云安全架构,推出威胁检测智能体解决方案,同时上线 Wiz AI-APP 应用保护平台,实现从代码、云环境到运行时的全链路自主防护,覆盖多云、混合云与 AI 场景。皮查伊还分享了谷歌自身 “客户零” 的落地实践:目前谷歌 75% 的新增代码由 AI 生成并经工程师审核批准,较去年秋季的 50% 大幅提升;智能体与工程师协同完成的复杂代码迁移,效率较纯人工操作提升 6 倍;安全运营中心智能体每月自动处理数万份非结构化威胁报告,将威胁缓解时间缩短超 90%;营销团队通过 AI 生成创意资产,实现周转效率提升 70%,转化率增长 20%。此外,大会还发布了 Agentic Data Cloud、Workspace Intelligence 等一系列配套升级,完善企业智能体落地的全链路能力。谷歌同时预告,将于 5 月 1 日举办的 Google I/O 大会上,带来更多 AI 技术的落地进展
3、英特尔借AI智能体东风强势复苏,股价创历史新高
2026年4月,英特尔交出远超市场预期的第一季度财报,股价盘后飙升逾20%,年内累计涨幅达81%,创下互联网泡沫后的历史新高。这场逆转的核心驱动力,正是AI应用从训练转向推理与智能体(Agent)的规模化部署。
AI智能体重塑市场,CPU重获核心地位
随着能够自主执行任务的“智能体AI”需求爆发,市场对计算架构的需求发生变化。智能体任务往往不需要英伟达GPU的全部性能,反而对擅长逻辑调度、工具调用的CPU需求大增。英特尔CEO陈立武指出,CPU正在重新确立其作为AI时代不可或缺基础设施的地位。第一季度,其数据中心与AI(DCAI)部门销售额同比激增22%至51亿美元,成为增长主引擎。
战略坚守与外部输血
面对此前在AI竞赛中的落后局面,CEO陈立武采取了反传统策略:通过裁员优化运营,同时坚决保留并投资芯片代工业务。更重要的是,他成功引入了关键的外部支持:美国政府通过协议成为其最大股东,英伟达和软银集团也进行了大规模投资,为公司转型提供了资金与信心。
技术攻坚与生态合作
在产品与技术端,英特尔18A制程已全面量产,良率优于预期;下一代14A工艺开发顺利,并与特斯拉合作推进。公司还与谷歌合作开发基于ASIC的IPU,并获得了谷歌数百万颗CPU的采购承诺。此外,英特尔提出“智能体PC”概念,旨在从硬件层面优化AI智能体体验。
4、Anthropic公开承认Opus 4.6“降智”,三项工程变更叠加酿成乌龙
经过用户长达一个多月的抱怨,Anthropic于4月24日发布报告,正式承认其Claude Code(特别是Opus 4.6模型)近期出现的智能下降问题。原因并非模型本身缺陷,而是三项独立的工程变更意外叠加所致。第一,3月4日为降低延迟将默认推理强度从“高”调至“中”,牺牲了部分智能;第二,3月26日一项缓存优化引入Bug,导致对话历史被持续清除,模型变得“健忘”;第三,4月16日为控制输出长度加入的系统提示词,意外导致模型性能下降约3%。所有问题已在4月20日前陆续修复。Anthropic承诺将加强内部测试、改进评估流程,并为订阅用户重置使用额度,以挽回开发者信任。
5、Meta豪掷数十亿美元,采用AWS自研Graviton CPU支撑AI智能体
4月25日,Meta与亚马逊AWS宣布达成一项为期数年、价值数十亿美元的协议。Meta将租用数十万片AWS最新的Graviton5 CPU芯片(基于Arm架构的3纳米制程),合计调用数千万个核心,以支撑其AI智能体业务背后的CPU密集型工作负载。此举是Meta多元化芯片战略的最新一步,也标志着CPU在AI算力格局中重获关键地位。分析指出,AI智能体的运行需要大量CPU来负责逻辑解析、工具调用等任务,与GPU形成协同。AWS借此巩固了其自研芯片在AI基础设施领域的商业版图,Meta则获得了高性能、高能效的算力选项。
6、谷歌拟追加400亿美元投资Anthropic,深化算力绑定
4月25日消息,谷歌已同意向人工智能初创公司Anthropic追加高达400亿美元的投资,以深化双方多层次合作关系。根据协议,谷歌将初始投资100亿美元,并在Anthropic达到特定绩效目标后追加剩余的300亿美元。此外,谷歌还将为Anthropic提供5吉瓦的算力。这是Anthropic在短短一周内达成的第二笔巨额算力投资协议,此前其已从亚马逊获得5吉瓦算力和250亿美元投资。这些交易凸显了AI巨头对稀缺算力资源的激烈争夺,以及“股权投资+长期算力消费承诺”的新型供应链融资模式已成为行业常态。
7、OpenAI与英伟达深度合作,打造高效智能编程与安全部署方案
OpenAI最新旗舰模型GPT-5.5驱动智能编程应用Codex,运行于英伟达GB200 NVL72系统,使英伟达内部逾万名员工在多部门使用时将调试周期从数天缩至数小时,并显著提升复杂代码实验效率。该系统还实现每百万Token成本降35倍、每兆瓦Token输出提50倍的经济优势。双方通过AI全栈协同、硬件与模型优化、10吉瓦系统部署及10万GPU集群测试等深度合作,构建了安全可控的专属云端虚拟机运行环境以保障数据与操作的可审计性。建议在大型企业与前沿模型研发中推广此类高效低耗的智能体编程与安全部署方案,以加速知识工作与软件开发创新。
8、斯坦福研究揭示企业AI落地真相:组织能力比技术更关键
斯坦福大学基于全球41家组织的51个实证案例,发布了《企业AI实战手册》。研究揭示,企业AI落地的主要挑战并非技术,而是变革管理、数据质量、流程重设计等组织问题。成功的关键要素包括:高管亲自下场每周清障、复用现有AI基础设施、选择终端用户有刚需的场景。报告指出,AI的价值更多在于替代“不必要的新增招聘”而非淘汰现有员工,且收入驱动型应用比降本型更具回报潜力。研究结论明确指出,技术是基础而非瓶颈,组织能力才是决定AI能否创造价值的核心因素
9、华为发布ADS 5自动驾驶系统,宣称“为自动驾驶而来”
华为发布ADS 5,升级至WEWA 2.0架构,并专为自动驾驶打造干昆OS。新架构采用云端多智能体博弈和在线强化学习,效率提升10倍。华为预计今年在智能驾驶投入超180亿元,未来5年再投700-800亿元。同时,华为公布了车内AI陪伴机器人“哈蒙蒙”及覆盖停车、充电、养车的“10分钟干昆智驾生活圈”生态布局。
10、OpenAI发布GPT-5.5,以“更强但不更慢”的代理能力争夺企业用户OpenAI发布迄今最强大模型GPT-5.5,定位为“面向实际工作和智能体的新型智能”。其核心突破在于打破了“更强即更慢”的规律,在保持与GPT-5.4相当推理延迟的同时,智能水平大幅跃升。在Terminal-Bench 2.0、SWE-Bench Pro等编程代理测试,以及OSWorld-Verified、GDPval等知识工作基准中,GPT-5.5均领先于主要竞争对手。该模型能够自主调用工具处理复杂任务,被早期测试者誉为具有“真正的概念清晰度”。GPT-5.5已向ChatGPT和Codex的付费用户开放,尽管API定价较高,但凭借更高的token效率,OpenAI意在争夺高价值的企业级付费市场,推动AI从问答工具向全流程工作代理演进。11、原子尺度上的竞争:台积电、三星、英特尔竞逐1nm芯片制程随着2nm制程逐步量产,全球半导体巨头已将竞赛推向更前沿的1nm(10埃米)节点,标志着芯片制造从纳米时代迈入埃米时代。这是一场融合尖端技术、巨额资本与长期耐力的综合较量。台积电规划其首个埃米级工艺A10(1nm)于2030年面世;三星目标在2030年前完成1nm工艺开发;英特尔则计划在2027年底将10A(1nm)节点推进至生产阶段。技术上面临从GAA到CFET晶体管架构的跃迁、High-NA乃至Hyper-NA EUV光刻机的极限挑战,以及背面供电、二维材料等新技术的应用。1nm芯片的晶体管密度将实现质的飞跃,但制造成本也可能飙升至天文数字,这场竞赛将重塑AI算力格局与整个半导体产业生态。12、台积电发布A13工艺,2029年量产并全面推进CoWoS与CPO技术在2026年北美技术论坛上,台积电公布了最新的工艺与封装路线图。新推出的A13工艺是A14的后续版本,通过设计技术协同优化,较A14节省6%面积,并在提升功耗效率的同时增强性能。A13设计规则与A14完全向后兼容,预计于2029年量产。同时,台积电预告了专为AI与HPC设计的A12工艺,将采用超级电轨技术实现背面供电。在先进封装领域,为满足AI对算力与内存的迫切需求,台积电正大力扩展CoWoS技术,计划在2028年量产可整合10个计算晶粒与20个HBM堆叠的14倍光罩尺寸版本。针对数据中心互连,其共同封装光学(CPO)解决方案预计于2026年量产,可显著提升功耗效率并降低延迟。13、JEDEC推进LPDDR6标准,容量上看512GB以满足AI数据中心需求全球固态技术协会(JEDEC)预告了LPDDR6标准的下一版更新。新标准将在既有基础上持续扩展,目标让原本主要用于移动设备的低功耗内存,进一步延伸至AI数据中心与加速运算场景。此次更新的重点包括:新增子通道模式以提升单颗元件与通道容量;导入弹性metadata配置机制以平衡容量与可靠性;预期单颗密度有望达到512GB等级,以支撑AI训练与推论持续攀升的海量内存需求。此外,JEDEC还同步推进LPDDR6 SOCAMM2模组与PIM(存内计算)标准。新规格旨在保持LPDDR低功耗优势的同时,满足AI时代对大规模、高效率内存的迫切需求。14、IBM一季度营收利润双超预期,但软件增长动力与咨询业务前景引担忧IBM发布第一季度财报,总营收159亿美元,调整后每股收益1.91美元,双双超出华尔街预期,AI需求持续为业务提供支撑。软件和基础设施业务成为增长双引擎,分别同比增长11%和15%,其中大型机业务表现突出。然而,财报中也显露隐忧:作为核心增长引擎的软件业务增速仅与预期持平,未能带来惊喜;而咨询业务在固定汇率下仅微增1%,几乎停滞,这被视为企业IT长周期支出意愿谨慎的信号。尽管利润率全面扩张、现金流充裕,但由于市场对AI能否持续颠覆并提振其传统业务存在担忧,IBM股价在盘后交易中下跌超7%。
15、DeepSeek密集发布技术更新,聚焦底层算子优化与蛋白质结构预测
2026年4月24日消息,国内AI公司深度求索(DeepSeek)近期技术更新动作频繁,接连对外介绍了其两项重要的技术进展:“Tile Kernels”与“DeepEP V2”。“Tile Kernels”是一项针对大模型推理阶段的底层计算优化技术。其核心思想是将传统的注意力计算中庞大的KV缓存进行“切片”(Tile)处理,并重组计算顺序。这种方法能够显著减少GPU显存中的重复数据读取(即“内存墙”压力),从而提升推理速度。初步测试显示,该技术可使推理吞吐量提升最高达40%,为降低大模型服务成本提供了新的底层优化路径。与此同时,DeepSeek也升级了其蛋白质结构预测模型,推出“DeepEP V2”。新版模型在准确性、速度以及对复杂蛋白质复合物的建模能力上均有显著提升。该技术旨在助力生物医药研发,通过AI更快速、精准地预测蛋白质三维结构,缩短药物发现周期。
16、特斯拉豪赌AI未来:250亿美元资本开支加码,自研AI5芯片提前流片
在最新的财报电话会上,特斯拉宣布将大幅增加对未来技术的投资,2026年资本支出预计超过250亿美元,核心押注AI、芯片与人形机器人。公司自研的AI芯片取得关键进展。马斯克宣布,下一代AI5芯片已提前完成流片。该芯片将主要用于Optimus人形机器人和数据中心。对于汽车,特斯拉认为当前的AI4硬件已能实现远超人类安全水平的自动驾驶,并计划对其升级至“AI4 Plus”,以提升算力与内存。同时,特斯拉将Optimus机器人定位为“可能是有史以来最大的产品”,并为其让路,计划于5月初停产Model S和Model X。首条Optimus生产线预计在今年夏末于弗里蒙特工厂启动。此外,特斯拉还规划在德州建设预算约30亿美元的“Terafab”研究型晶圆厂,并与英特尔在其14A工艺上深度合作,为未来的芯片制造铺路。
17、传腾讯、阿里巴巴正洽谈投资DeepSeek据外媒报道,中国科技巨头腾讯与阿里巴巴正在洽谈投资人工智能初创公司DeepSeek。DeepSeek在首次融资中寻求超过200亿美元的估值,并计划募集至少3亿美元。尽管该公司尚未产生显著收入且模型保持开源,但其技术实力吸引了巨头关注。对于腾讯和阿里而言,投资DeepSeek有助于对冲各自在AI领域的布局风险,并获得进一步的合作机会。新资金将助力DeepSeek获取算力并留住人才。18、收购Cursor的背后:SpaceX的交易揭示了xAI的困境SpaceX计划以600亿美元收购Cursor的协议,引发了外界对xAI价值的质疑。分析指出,马斯克考虑收购Cursor的核心原因,是其自家的AI初创公司xAI未能在编码领域赶上行业领导者,且内部经历了动荡和人才流失。此前,马斯克曾承认xAI“最初的搭建并不完善”,需要“从头开始重构”。这笔交易暗示,如果xAI无法独立打造顶尖的编程AI,那么SpaceX此前以巨额股票收购xAI可能付出了过高代价19、腾讯云提出Agent Memory Lake理念,解决智能体记忆存储瓶颈腾讯云存储专家架构师王登宇指出,智能体(Agent AI)的多轮交互高度依赖记忆,使得记忆访问成为性能核心瓶颈。他提出了“智能体记忆湖”(Agent Memory Lake)理念,旨在通过结合高速缓存、智能治理与多场景适配的全栈方案,解决智能体记忆管理在成本、性能与规模化上的难题20、CoreWeave与谷歌云合作推出三项跨云AI能力CoreWeave与谷歌云合作推出了CoreWeave Interconnect、SUNK Anywhere和LOTA Cross-Cloud三项功能,旨在实现云间直接互联、多环境算力扩展和数据集中跨云运行。此举消除了企业对第三方跨云服务的依赖,能帮助开发者更便捷地构建分布式AI应用。21、OpenAI与Anthropic被指减少对“推理技术”依赖行业观察指出,OpenAI和Anthropic即将发布的新模型迹象显示,它们可能正在减少对“推理”(即测试时计算)技术的依赖。推理技术曾是让模型“多思考”以解决难题的重大突破,但会增加计算成本和延迟。迹象表明,新模型似乎通过在预训练阶段变得更智能来实现性能提升,而非依赖推理时的额外计算。这可能使模型运行成本更低、速度更快,更适合需要低延迟的智能体任务。22、AI算力需求引爆CPU涨价潮,英特尔、AMD下半年或再涨8%-17%受AI服务器需求急速升温及先进制程产能高度集中影响,CPU市场出现严重供不应求。自今年3月起,消费级与服务器CPU价格已分别上涨5%-10%和10%-20%。供应链消息称,英特尔计划在下半年再度涨价8%-10%,AMD的服务器CPU则在第二、三季度累计涨价16%-17%。根本矛盾在于AI芯片、GPU与CPU在台积电等代工厂的3纳米产线上争夺有限产能,预计供需缺口可能延续至2027年。
23、谷歌组建造码‘突击队’,谢尔盖·布林亲自带队追
AI编程由于Anthropic发布的Claude Opus 4.7在编码能力与代码自主生成率上大幅领先,谷歌紧急组建了一支由DeepMind工程师Sebastian Borgeaud领导、联合创始人谢尔盖·布林及DeepMind CTO直接参与的“突击队”。该团队旨在全力提升AI编程模型能力,以实现编码自动化乃至AI自我优化,并将重点优化长上下文编码任务和在私有代码库训练模型。面对在编码与Agent能力上的明显落后,谷歌正凭借布林的“创始人模式”及内部资源优势,试图在竞争窗口关闭前快速追赶。
24、光通讯产能全行业售罄,投资逻辑转向利润率博弈
AI数据中心建设浪潮持续推升光通讯需求,摩根士丹利研报指出,多家光通讯企业今年产能已售罄,营收不确定性大幅降低。在此背景下,市场博弈焦点已从营收预测转向各公司能否在供给偏紧格局下有效捕获利润率上行空间。其中,Lumentum因持续激进提价而被看好,而康宁(Corning)管理层对光纤价格同步上涨的表态则相对保守。
25、高通深陷内存供应瓶颈,AI热潮反噬消费电子主业高通正因
AI数据中心建设带动的内存需求爆炸而陷入困境。DRAM价格暴涨导致其消费电子客户被迫削减备货,加之苹果逐步停用其调制解调器芯片,公司前景承压。分析师预计,高通2026财年营收将出现自2023年以来首次负增长,2027财年增速也仅有约0.8%,与半导体行业整体增长预期相去甚远。尽管公司正加速向汽车、PC等多元化领域转型,但新业务增量尚不足以弥补手机市场的巨大缺口。年内其股价下跌逾20%,为费城半导体指数中表现最差的成分股。
26. 亚马逊加码AI军备竞赛,拟向Anthropic追加高达250亿美元投资
亚马逊计划向人工智能公司Anthropic追加高达250亿美元的投资。这笔投资将与商业里程碑挂钩,加上此前已投资的80亿美元,总投资额相当可观。作为协议的一部分,未来十年Anthropic将在亚马逊云科技(AWS)上花费超过100亿美元,双方还将在技术使用、数据中心建设等方面展开深度合作。
27. 美国国安局被曝仍在内部使用Anthropic的Mythos模型
尽管美国国防部(五角大楼)出于安全担忧限制了Anthropic公司AI模型“Mythos Preview”的使用,但美国国家安全局(NSA)仍在内部使用该模型。报道还提及了特朗普政府时期的相关情况,以及近期特朗普的行政助理与Anthropic首席执行官之间的会面。
28、SK hynix量产192GB SOCAMM2,专供NVIDIA平台
SK hynix正式量产基于第六代10纳米级LPDDR5X的192GB SOCAMM2内存模块,该产品专为AI服务器及英伟达Vera Rubin平台打造。相比传统RDIMM,其带宽提升逾两倍,功耗降低75%以上,并通过模块化设计解决了板载内存成本高与升级难的问题,显著缓解了大规模AI模型训练的存储瓶颈。
29、22岁创业者开源破解Claude Mythos核心架构
22岁创业者Kye Gomez仅凭公开资料与第一性原理推导,将Claude Mythos核心架构全开源为OpenMythos。该架构采用循环深度Transformer结合MoE的三段式设计,可在单次前向传播中循环最多16次实现高效迭代推理,以770M参数达到1.3B模型性能,表明闭源架构优势正在消解。
二、新品发布与技术应用
1、谷歌发布Vision Banana,生成式预训练统一视觉理解与生成谷歌DeepMind于4月23日发布通用多模态视觉大模型Vision Banana。该模型以图像生成模型Nano Banana Pro为底座,仅通过轻量指令微调,便将分割、深度估计、表面法线预测等多种视觉感知任务,统一为“生成特定编码的RGB图像”这一形式。在零样本迁移下,其性能击败了SAM 3、Depth Anything 3等专业模型,刷新多项SOTA。何恺明、谢赛宁参与了此项工作。该成果证明,图像生成预训练本身能让模型学到丰富的视觉世界表征,只需设计合适接口即可释放理解能力,为实现视觉领域的“生成即理解”统一范式迈出关键一步。
2、OpenAI发布ChatGPT Images 2.0,强化专业图表生成并新增付费机制OpenAI推出图像生成模型重大更新ChatGPT Images 2.0,显著强化了对复杂图表与科学示意图的生成能力,旨在拓展其在教育、科研等专业用户市场的应用。新模型在指令遵循、细节呈现和多语言文本渲染方面均有提升,并引入了需付费使用的“深度思考”机制,可在生成前进行更长时间的推理和联网检索。此次更新是OpenAI精简产品线、聚焦企业客户战略的一部分,依托其每周数亿活跃用户和超10亿张的周产图量,有望巩固在专业与商业图像市场的竞争力。
3、腾讯正式发布并开源新一代语言模型Hy3 preview(混元3.0预览版)
这是腾讯混元大模型团队历经全链路“重建”后推出的首款旗舰模型,也是前OpenAI研究员姚顺雨加盟后的首份成绩单。该模型采用快慢思考融合的MoE架构,总参数295B,激活参数21B,支持256K超长上下文,并未盲目追求参数规模,而是定位在“性能与性价比”的平衡带。Hy3 preview在复杂推理、指令遵循、代码与智能体等能力上实现显著提升,并已快速接入元宝、QQ、腾讯文档、CodeBuddy等众多内部产品。腾讯通过此次开源,旨在获取社区真实反馈以优化正式版,并将竞争重点从“有无模型”转向“生态落地”,标志着其AI战略进入以实际应用驱动的新阶段。4、几何材质双SOTA,字节跳动Seed3D 2.0让AI生成3D模型可直接使用字节跳动火山引擎正式发布新一代3D生成模型Seed3D 2.0。该模型在几何生成和纹理材质生成两项核心指标上均达到当前最优水平(SOTA),解决了以往3D生成模型“能看不能用”的痛点。通过采用Coarse-to-Fine两阶段生成策略,模型在锐利边缘、薄壁结构等几何细节上表现优异;在材质方面,可输出完整的PBR材质贴图,使生成结果能直接接入标准渲染与生产流程。专业盲测显示,其在几何和带材质生成任务上相比多个主流模型获得更高偏好率。目前,其API服务已上线火山方舟,并计划未来支持部件拆分与关节信息,以适配仿真、具身智能等下游场景,推动3D生成迈向真正的“生产可用”。
5、月之暗面发布并开源Kimi K2.6模型
月之暗面正式上线并开源Kimi K2.6模型,其在多个主流基准测试中代码能力追平或超越GPT-5.4与opus 4.6,并在长周期编程、前端生成、智能体集群及持续自主运行等方面展现显著提升。智能体集群可协同完成完整交付物。
6、英伟达:发布Lyra 2.0系统,可从单张图片生成可自由漫游三维世界英伟达研发的Lyra 2.0是一套可从单张图片生成可自由漫游三维世界的系统,其通过逐帧保存空间骨架解决“空间遗忘”、利用自增强训练抑制“时间漂移”,并将生成视频重建为高质量三维高斯场景以支持机器人仿真与实时渲染。该系统在多项对比实验中表现领先,还可经蒸馏实现13倍加速,适用于旅行预览、游戏场景构建及低成本仿真环境生成。7、微软在Office中推出“vibe working”智能体模式,主动执行编辑任务微软在Word、Excel和PowerPoint中推出名为“vibe working”的智能体模式,这是Copilot的升级版,可从被动助手进化为主动代理,直接在文档、表格和演示文稿中执行多步骤编辑操作并实时展示过程。该功能已在Excel中实现自动添加公式和表格、在PowerPoint中更新内容并保留模板样式,目前作为默认体验向Microsoft 365 Copilot、Premium以及个人版、家庭版订阅用户开放。建议用户通过侧边栏跟踪AI操作步骤,以充分利用其在保持原有格式前提下高效完成复杂编辑任务的能力。8、思科:推出原型通用量子交换机,连接不同厂商量子系统思科推出一款原型通用量子交换机,可在室温下通过标准电信光纤连接IBM、IonQ、谷歌等不同厂商的量子系统。该设备借助专利转换引擎,实现多模态量子信号的统一转译与低损耗传输(编码与纠缠保真度损耗低于4%),旨在解决量子计算的扩展性问题,加速构建分布式量子网络与量子互联网。该交换机基于每秒可生成2亿对纠缠光子对的量子纠缠芯片,未来将扩展至更多编码技术。9、OpenAI:推出实验性预览功能Chronicle,存在隐私安全隐患OpenAI推出名为Chronicle的实验性预览功能,仅适用于macOS平台的Codex应用,可通过捕获屏幕截图并经OCR提取上下文生成本地记忆文件,以增强Codex对用户的背景理解。该功能存在加速消耗配额、提升提示注入攻击风险、未加密存储本地记忆及OCR文本可能长期留存等多重隐私安全隐患,与微软Recall功能机制高度相似且后者曾受强烈批评。
10、Snowflake推出统一控制平台打造“智能体企业”核心控制层Snowflake推出统一控制平台,通过升级Snowflake Intelligence与Cortex Code,将平台打造成“智能体企业”核心控制层,支持与Gmail、Jira、Salesforce等主流企业应用及AWS、Databricks、PostgreSQL等外部数据系统互联,并提供移动端与SDK。此举旨在整合数据、治理与AI能力,帮助企业迈入生产部署。11、QClaw出海:基于OpenClaw的AI助手登陆全球市场腾讯于本周二推出了其AI助手QClaw的国际版本,旨在测试全球用户对基于OpenClaw的新产品的兴趣。此前,腾讯已在中国市场推出了多款基于OpenClaw的产品。国际版QClaw允许用户将其连接到WhatsApp、Telegram等流行的即时通讯应用。腾讯宣传其易于使用的功能,可帮助用户构建用于旅行规划、购票、报税以及设计健康健身计划的智能体。此次扩张正值开源AI智能体软件OpenClaw的初期狂热消退之际。该软件自今年1月爆火后,其安全性和可用性面临诸多质疑。然而在中国,OpenClaw的热度反超美国,腾讯与其他公司正竞相推出基于它的新服务。12、OpenAI发布可本地运行的隐私过滤模型OpenAI发布了一款名为“OpenAI Privacy Filter”的隐私保护工具。该模型能够自动识别并屏蔽文本中的个人身份信息,如姓名、日期、账户号码、电子邮件等,适用于AI训练数据清洗。其最关键特性是支持完全本地运行,敏感数据无需上传至云端即可完成脱敏,降低了数据传输中的泄露风险。该模型已在Hugging Face和GitHub上以Apache 2.0许可证开源,支持商业部署与定制化微调。
13、Google Cloud推出QueryData,解决大模型数据库查询不准难题
Google Cloud发布新工具QueryData,旨在解决大语言模型在直接生成数据库查询时因结构理解有限而导致结果不准确的问题。该工具可将自然语言精准转换为查询语句,声称准确率接近100%。企业使用前需预先配置详细的数据库上下文(如表结构、业务含义),并通过“上下文工程助手”进行迭代测试。完成后,QueryData可作为智能体与数据库之间的可靠执行层。目前该工具支持AlloyDB、Cloud SQL等多种数据库,并处于预览阶段,标志着AI智能体向可靠的数据决策应用迈进。
14、开源M-Flow记忆引擎,斩获三大评测
全开源记忆引擎M-Flow,采用创新的Cone Graph分层结构,实现了Graph RAG新范式。该技术使信息检索能沿着语义骨架进行关联,突破了传统搜索的局限,赋予了AI类人的联想能力。在LoCoMo、LongMemEval、EvolvingEvents三大公开评测基准中,M-Flow全面领先Mem0、Zep等竞品,取得全球第一的成绩。这项成果表明,AI记忆技术应超越单纯搜索,聚焦联想机制以提升智能层的理解与推理能力。
15、英伟达 :发布开源大型音频语言模型Audio Flamingo Next
NVIDIA研究院与马里兰大学联合发布了完全开源的大型音频语言模型Audio Flamingo Next(AF-Next),它能统一处理语音、环境声和音乐,支持长达30分钟的长音频理解,并创新性引入时间音频推理链技术。在20余项基准测试中超越同量级开源模型,部分指标优于更大规模闭源商业模型。
16、Anthropic推出AI设计助手Claude Design
Anthropic推出面向订阅用户的AI设计助手Claude Design,可生成设计稿、原型图、幻灯片等视觉内容,并支持通过对话、内联批注等进行精细调整,还能读取企业代码库与设计文档以自动沿用品牌视觉规范,定位为专业设计领域的可控创作平台。
三、学术前沿与研究突破
1、首篇Attention Sink综述发布,系统梳理Transformer注意力汇聚现象
来自清华大学、香港大学等机构的研究者联合发布了首篇关于“注意力汇聚”(Attention Sink)的系统性综述。该现象指Transformer模型(包括LLM、ViT等)会不自觉地将大量注意力集中在序列开头等无信息量的token上,影响模型动态并可能引发幻觉。综述梳理了超180篇研究,勾勒出该领域从“基本利用”(2023年起)、到“机制理解”(2024年起)、再到“策略性消除”(2025年起)的清晰演进轨迹。这篇题为《Attention Sink in Transformers: A Survey on Utilization, Interpretation, and Mitigation》的综述,为研究者全面理解与应对这一核心现象提供了重要参考。
2、复旦等校提出HERMES框架,层次化记忆管理加速流式视频理解
复旦大学、上海创智学院与新加坡国立大学的研究者联合提出HERMES免训练流式视频理解框架。其核心创新是将传统的键值(KV)缓存重塑为层次化的记忆系统,使系统无需额外检索即可直接复用缓存中的历史信息进行作答。该框架有效解决了长视频理解中信息保留与计算效率的平衡问题,在大幅减少需处理视频Token数量的同时,保持了理解性能。实验表明,HERMES在流式任务上最高可提升11.4%的性能,并将首Token生成时间最快加速10倍,同时能稳定控制显存占用,为实时视频分析与交互应用提供了高效解决方案。
3、慕尼黑工业大学等:提出KV Packet方法,大幅加速RAG推理
慕尼黑工业大学等机构联合提出KV Packet方法,旨在解决RAG系统中因缓存语境依赖导致的性能瓶颈。该方法通过在文档的键值(KV)缓存前后加入可训练的软标记,实现了跨语境的无重计算复用。实验表明,该方法可将推理时生成第一个Token的延迟最多缩短约20倍,计算量降低5至6个数量级,同时能保持与完整重计算相当的回答质量。该方法天然兼容现有的KV缓存压缩技术。
4、KAIST等:提出记忆迁移学习框架,提升AI编程助手跨域能力KAIST、纽约大学与DeepAuto.ai联合提出一种记忆迁移学习框架,能够将来自不同类型编程任务的经验汇入统一的记忆池,从而突破现有AI编程助手单域记忆的限制。研究在六种基准任务上比较了四种记忆格式,发现跨域记忆平均能提升3.7%的任务成功率,且抽象度越高的记忆迁移效果越好。该框架主要传递的是“先检查再动手”等操作哲学而非具体算法,对专业领域任务的提升最为显著。
5、图片存档案、推理看编号,LMM-Searcher让AI实现百轮长链搜索中国人民大学与香港城市大学联合发布研究,提出名为LMM-Searcher的创新框架,旨在解决多模态AI在长链搜索中因图片过多导致“上下文爆炸”的难题。其核心是“文件外存”机制:将搜索过程中遇到的所有图片存入外部存储系统,并为每张图片分配一个轻量级文字编号(UID)。AI在推理时只需记住这些编号,仅在需要仔细分析时才通过专用“取图工具”加载原图。这种“渐进式按需加载”策略,结合专门设计的搜索、浏览、视觉处理三层工具体系,使得AI能够支持超过100轮的持续搜索而不撑爆内存。在MM-BrowseComp、MMSearch-Plus等高难度基准测试中,基于该框架的LMM-Searcher-30B模型达到开源模型最优水平,实现了长链推理的有效扩展。6、摒弃冗余提示,KnowRL框架让小模型数学推理准确率刷新纪录天津大学、百度与中国科学院信息工程研究所的研究团队提出KnowRL框架,针对大语言模型强化学习中的“奖励稀疏”难题。该方法将传统冗长的解题提示分解为独立的“原子知识点”,并通过创新的“约束子集搜索”(CSS)策略,筛选出解题所需的最小充分知识点组合,有效避免了冗余和矛盾提示对模型的干扰。基于该方法训练的KnowRL-Nemotron-1.5B模型,在包括美国数学邀请赛(AIME)在内的8个数学推理基准测试中,无提示推理准确率达到70.08%,加入CSS筛选的提示后进一步提升至74.16%,刷新了15亿参数规模模型的最佳成绩。研究表明,精准的“关键钥匙”比庞杂的“整个工具箱”更能有效引导AI学习。7、联网检索+视觉参考,ROSE助力AI识别并分割训练后出现的新事物复旦大学计算机科学与人工智能学院的研究团队发布ROSE框架,旨在解决AI图像分割模型因“知识截止”而无法识别训练后出现的新事物(如新款手机、新明星)的核心痛点。ROSE是一个即插即用的检索增强系统,包含四大模块:互联网检索模块获取最新信息;文本提示增强器生成丰富描述;视觉提示增强器从网络图片中提取目标“视觉指纹”;守门人模块判断是否需要联网。该框架可将现有分割模型对“新兴实体”的整体分割性能(gIoU)提升超过30%,在自建的NEST基准上达到73.0,比单纯结合商业搜索的方案高出近20个百分点,同时不损害模型原有的传统任务能力。
8、新研究将Transformer推理成本降至线性苹果公司研究人员提出了一项创新方法,可将Transformer架构改造成类似Mamba的线性复杂度模型,从而大幅降低长文本推理成本。传统Transformer在处理长序列时成本呈平方级增长。该方法通过一个名为“HedgeMamba”的混合模块,分步将Transformer的注意力机制替换为更高效的组件。实验显示,改造后的模型在性能损失极小的情况下,实现了从平方级到线性的推理成本跨越,为部署高效大模型提供了新思路。9、弗雷泽大学与哈佛大学提出IceCache大模型记忆管理方案西蒙弗雷泽大学与哈佛大学联合提出IceCache,一套针对大语言模型长文本推理的KV缓存管理方案。核心是通过语义聚类索引与多层树结构实现缓存高效检索和更新,并优化CPU-GPU数据交换以实现存储加速。IceCache能以远低于竞争方法的缓存预算达成接近完整缓存的准确率,显著降低显存占用和解码延迟。10、忆评估新标杆:ATANT框架首次定义“连续性”,六天内实现96%通过率一项由Kenotic Labs完成的研究提出了名为ATANT的评估框架,首次从学术层面正式定义了AI系统的“连续性”概念及其七条可测试属性。该框架旨在评估AI能否真正“持续了解”用户,其本质是状态重建而非简单检索。研究构建了包含250个生活叙事故事和1835道验证题的测试语料库,并通过十个检查点系统评估AI的写入与读取路径。结果显示,研究团队的自研系统从遗留架构58%的基线出发,在改用全新架构后,仅用六天便在隔离测试模式下实现满分,在更困难的累积模式(多用户故事共存)下达到96%的通过率。这证明AI连续性是一个架构设计问题,而非参数调优问题。11、学等提出MEDS记忆增强动态奖励塑造框架针对大型语言模型强化学习中反复陷入同类错误的“错误坍塌”问题,复旦大学与上海创新研究院联合团队提出MEDS记忆增强动态奖励塑造框架。通过提取模型内部数值信号形成“推理指纹”,利用聚类识别重复错误并施加动态加重惩罚。实验表明pass@1和pass@128指标最大相对提升达17%,显著增加探索路径多样性。
12、上交大54页综述:Agent认知外部化是可靠性提升的关键
上海交通大学联合多机构发表的54页综述提出,“外部化”是理解LLM Agent演进的核心框架。研究指出,Agent的实际进展更多依赖于模型之外的认知基础设施(记忆、技能、协议与Harness工程),而非单纯提升基座模型能力。该框架系统阐释了连续性、一致性、协调性三类错配问题,并描绘了能力载体从模型内部向外部结构三次迁移的路径。结果表明,将认知负担迁移至可治理的外部结构中,能使Agent更可靠,其发展体现为外部组件在Harness环境中形成自我强化循环。综述建议未来扩展外部化边界、推进具身化与自演化Harness、加强安全治理与共享基础设施建设。
13、清华大学等机构联合综述,系统性揭秘Transformer“注意力沉积”陷阱由清华大学、香港大学、美团LongCat等多机构联合完成的综述,首次系统性揭示了Transformer中的“注意力沉积”现象,即AI将大量注意力集中于句子开头标记等语义无关词上。该现象源于Softmax函数“总和为1”的数学约束,会导致模型推理效率下降、产生幻觉、低精度部署困难及安全隐患。研究从利用、解释、消除三个维度构建了完整知识体系,提出了保留沉积词、注意力重分配等利用方法,以及门控注意力、修改Softmax等消除策略,为提升AI可靠性提供了系统性指导。
14、腾讯新作GraSP攻克Agent技能编排难题
腾讯研究人员提出全新框架GraSP,解决了LLM Agent领域一个反直觉现象:技能越多,Agent性能反而下降。该框架通过在“技能检索”与“执行”之间加入“编排”编译层。用图结构显式表达技能间因果,并将失败后的全局重规划(O(N)开销)转变为仅修复受影响局部子图(O(d^h)开销)。
15、多伦多大学:揭示AI数学推理格式局限,建议加入工作记忆
多伦多大学与向量研究所联合研究通过构建含14种仅改变文字格式但不改变数学内容的变换方法的鲁棒推理基准,测试八个顶尖AI模型,发现闭源模型对格式扰动鲁棒性较高,而多数开源模型下降高达55%甚至归零。结果表明不少模型高分源于适配标准格式而非真正理解数学逻辑,建议未来AI架构设计应加入工作记忆隔离能力。
16、RAG系统:揭示记忆累积导致隐性失效的机制
研究揭示RAG系统在记忆累积时会出现准确率下降而置信度上升的隐性失效,实验显示记忆从10条增至500条时准确率由50%跌至30%、置信度由70.4%升至78.0%,根源在于相似度检索使大量语义相近但不相关的陈旧条目挤占结果。其提出主题路由、去重、相关性驱逐和词汇重排四种架构机制可显著改善检索精度与准确性。
17、中科院提出Ouroboros晶圆级存算一体方案
中科院计算所研究团队提出Ouroboros晶圆级SRAM存算芯片方案,通过54GB片上存储与三层架构实现数据不搬移的“原地计算”,以解决大模型推理中的数据搬运高延迟和高能耗问题。实验显示,13B模型吞吐最高提升9.1倍、能效提升17倍,Llama 13B推理可达15
18、人大AiScientist实现23小时长程记忆与决策连贯
中国人民大学高瓴人工智能学院开发的AiScientist通过File-as-Bus机制稳定保存项目状态,实现从论文理解到实验迭代的完整科研流程接管,解决了长程机器学习研究工程中跨阶段状态连续与决策连贯的难题。该系统在MLE-Bench Lite上将validation AUC从0.903提升至0.982。
19、谷歌DeepMind推出“弹性循环变换器”实现参数高效
谷歌DeepMind研究团队提出弹性循环变换器(ELT),通过权重共享的循环变换器块与内循环自蒸馏训练策略,将模型参数量压缩至传统模型的四分之一,并在图像与视频生成任务中达到或超越对标基线的质量,支持任意时刻推理。
20、Meta AI与KAUST联手打造高效长视频理解框架
Meta AI与沙特阿卜杜拉国王科技大学(KAUST)联合提出Tempo框架,通过小型视觉语言模型进行查询感知的视频信息蒸馏,并配合自适应token分配机制在保留关键细节的同时压缩无关片段。该方法以60亿参数在极长视频理解上超越GPT-4o等商业模型。
21、南京大学与字节跳动推出具备长期记忆的多模态模型
南京大学与字节跳动在CVPR 2026上推出PersonaVLM,通过“个性化记忆架构+人格演化机制”将7B多模态大模型升级为具备长期记忆与动态人格理解的智能助手,在自建基准上以79%胜率击败GPT-4o。
22、菲尔兹奖得主新论:数学的本质是“压缩”
菲尔兹奖得主迈克尔·弗里德曼在其最新论文中提出了一个颠覆性观点:数学的本质并非单纯的证明,而是一个可塑的“压缩”过程。通过分析大型数学形式化项目Mathlib,他发现人类能够将庞大的演绎推理链条凝练为极其简短的命题,这揭示了数学长期以来依赖抽象层级进行“压缩”的秘密。研究指出,人类数学依靠这种压缩抽象来高效导航复杂的推理空间,而AI则倾向于穷举。理解这一根本机制,被认为是未来人类与AI在数学领域实现有效协作的关键起点。
四、政策导向与行业治理
1、数据中心环境问题成为影响美国中期选举的重要议题数据中心因高耗电、水耗及潜在污染等问题,在美国多地引发社区居民的强烈反对,并已成为影响2026年中期选举的重要议题。一些支持数据中心建设的地方官员因此落选,多州和地方已陆续推出限制或暂停建设的法规
2、工信部回应存储涨价与太空算力:多措并举稳供给,前瞻布局促协同
针对近期存储器价格上涨、算力发展等热点议题,工业和信息化部在新闻发布会上作出回应。对于存储芯片涨价,工信部表示将采取增强供给、促进供需对接、鼓励投资、拓宽渠道及打击囤积居奇等措施,以稳定产业链供应链。在算力与未来技术领域,工信部明确将推进算电协同政策研究、标准制定,并前瞻布局太空算力与6G研发。回应凸显了通过跨领域协同与创新,保障产业稳定与绿色高效发展的方向。
五、其他
1、Sam Altman炮轰Anthropic新模型采用“恐惧式营销”
OpenAI首席执行官萨姆·阿尔特曼在播客中公开批评竞争对手Anthropic对其网络安全模型Mythos的营销方式,称之为“恐惧式营销”。Anthropic此前宣称Mythos过于强大而不能公开发布,以防被网络犯罪分子武器化。阿尔特曼暗示,这种rhetoric(说辞)是将AI控制在少数精英手中的借口,并讽刺道:“这显然是不可思议的营销,说‘我们造了个炸弹,正要扔到你头上。我们可以卖给你一个价值1亿美元的防空洞’。
2、火山引擎(字节跳动):新一代汽车AI方案与主流车企全覆盖字节跳动旗下火山引擎推出了基于Agentic AI架构的新一代汽车AI解决方案。该方案以统一的“AI大脑”实现整车能力的一体化调度,旨在让智能座舱从被动响应升级为具备连续决策与自主成长能力的主动服务。目前,该方案已与100%的主流车企达成合作,其豆包大模型搭载车辆超过700万辆,覆盖多品牌车型,日均完成超过3000万次交互,已成为行业内的通用底座之一。3、Palantir:获得美国农业部3亿美元合同,助力农业安全现代化
大数据公司Palantir获得美国农业部一份价值3亿美元的合同,将通过其运营软件支持“国家农场安全行动计划”。该合作将覆盖作物保险、保护项目、农业安全网及灾难项目等多个领域,旨在提升供应链韧性并防范欺诈与境外势力渗透。合作还包括推动“一农一档”计划及整合Landmark平台等遗留系统。美国农业部认为Palantir具备独有的企业级数据融合、实时分析及深度系统集成能力。
4、SK海力士Q1毛利创历史新高,称存储芯片短缺将持续更久2026年第一季度,SK海力士交出亮眼财报:营收环比大增60.2%,营业利润接近翻倍,毛利率高达79.3%,创下历史新高。业绩超预期的核心驱动力是HBM(高带宽内存)需求的持续旺盛以及存储芯片价格的强势上涨。公司明确指出,当前的供应短缺具有结构性特征,客户将确保供应置于压价之上,因此强劲的定价环境将比以往周期持续更长时间。SK海力士判断,未来三年HBM需求将远超其自身供给能力。为此,公司计划2026年全年资本支出较上年大幅提升,重点投向基础设施与设备,以扩张产能。这份财报向市场释放出明确信号:由AI驱动的存储芯片高景气度有望延续。
5、寒武纪召开年度业绩说明会,回应竞争格局与存货增长寒武纪于4月22日召开2025年度业绩说明会。董事长陈天石表示,在大模型技术革新背景下,智能计算需求持续增长,公司将持续加大研发投入以巩固优势。针对存货账面价值大幅增长,董秘叶淏尹解释称,这是由于公司凭借产品优势拓展市场,并对AI算力需求持乐观预期,因而进行了大规模采购备货。同时,公司也在积极应对国产先进制程代工产能保障等潜在风险。6、台积电决定推迟至2029年部署ASML最先进光刻机台积电联席副首席运营官Kevin Zhang近日表示,公司目前没有计划将ASML最新的高数值孔径极紫外(High-NA EUV)光刻机用于芯片量产,相关决定至少将延续至2029年。主要原因在于该设备单价超过3.5亿欧元(约4.1亿美元),成本“非常非常昂贵”。台积电将继续深挖现有EUV技术的价值,并宣布其领先的A13芯片将于2029年投产。作为ASML的最大客户,台积电的这一决策可能给该设备制造商的商业化进程带来压力。
夜雨聆风