乐于分享
好东西不私藏

「AI日报」4月30日 · 四巨头交卷,有云的赢了

「AI日报」4月30日 · 四巨头交卷,有云的赢了

 

整理范围:覆盖模型发布与架构创新、开发工具与框架更新、产品应用落地、技术研究前沿、行业战略与资本动向、社区生态观察等核心领域。

 

硅谷四巨头同日交卷,Google Cloud首破200亿美元而Meta盘后暴跌6%——”有云”的赢了,”烧钱”的被罚了。国内这边,国家电网甩出68亿采购单正式给具身智能开了张”现实账单”,小红书成立AI一级部门Dots完成13年来最大组织手术。今天的AI世界,钱在重新找方向。

 01
 头条聚焦
 

四巨头同日交卷:Google大涨6%,Meta暴跌6%——”有云”的赢了

 

4月29日硅谷”超级星期四”,Alphabet微软Meta亚马逊同日发财报,市场反应却是冰火两重天。Alphabet盘后涨超6%——Google Cloud同比暴增63%首破200亿美元,搜索收入同比增长19%达604亿美元,打脸”AI会抽走搜索用户”的叙事。亚马逊盘后涨约1.7%,AWS增速28%创15季最快,自研AI芯片年化收入已超200亿美元。微软盘后跌超2%,Azure增长不惊艳。Meta最惨,盘后跌超6%,上调全年资本开支吓坏市场。四家Q1资本开支合计创历史新高,但分水岭很清晰:AI已经开始在云端变现的被买单,纯靠广告+烧钱的被惩罚。Anthropic承诺未来十年向AWS投入超1000亿美元——云才是AI时代的真正收银台。

 

   

参考链接:

   

https://www.tmtpost.com/7973804.html

   

https://www.tmtpost.com/7973651.html

   

https://stratechery.com/2026/amazon-earnings-trainium-and-commodity-markets-additional-amazon-notes/

 

 

国家电网68亿采购单:具身智能第一次被写进”现实账本”

 

国家电网印发《2026年具身智能发展规划》,甩出一张68亿元的采购清单:四足巡检机器狗5000台(单价30万,共15亿)、双臂巡检机器人3000台(单价60万,共18亿)、人形带电作业机器人500台(单价500万,共25亿)。供应商名单上写着云深处、宇树、智元、优必选、傅利叶。这是中国具身智能行业有史以来最大的单笔订单,算上南方电网和地方能源集团跟进,预计2026年电力行业总投资突破100亿元。电网为什么率先买单?任务标准化程度高,单设备年省50-80万人工成本,回收期2-3年——算得过来账的生意,不需要信仰。

 

   

参考链接:

   

https://www.tmtpost.com/7973422.html

 

 02
 模型与架构
 

Mistral Medium 3.5发布:128B dense开放权重,SWE-Bench 77.6%

 

Mistral放出Medium 3.5公开预览,这是一个128B参数的dense模型(不是MoE),支持256k上下文窗口,修改版MIT许可开源。在SWE-Bench Verified上打出77.6%,超过Devstral 2和Qwen3.5 397B。最少4张GPU即可自托管。同步上线的Vibe远程Agent功能允许从CLI启动云端coding session,支持并行多任务。视觉编码器从零训练支持可变图像尺寸。在OpenAI、Google、Anthropic三强格局中,Mistral正试图用”开放权重+Agent能力”组合拳打出差异化——不跟你比封闭,跟你比谁更可控。

 

   

参考链接:

   

https://mistral.ai/news/vibe-remote-agents-mistral-medium-3-5

 

 

8节点解锁1M上下文训练:百万token长序列不再是大厂专利

 

Dirhousssi Amine的实验让人眼前一亮:在8个节点上成功解锁100万上下文长度训练,使用Qwen3-30B-A3B MoE模型,达到37% MFU。技术栈是DeepSpeed ZeRO Stage 3+ 加 Ulysses序列并行。此前百万级上下文训练被认为需要数百GPU集群,现在通过MoE架构(仅3B活跃参数)+序列并行+ZeRO优化的组合,8节点即可企及。37%的MFU在分布式长序列训练中算相当不错。中小团队和学术机构微调百万token级模型,从此有了可行路径。

 

   

参考链接:

   

https://x.com/_lewtun/status/2049473846105841732

 

 03
 工程与工具
 

Zed 1.0正式发布:100万行Rust代码,GPU渲染的编辑器新物种

 

Zed团队宣布编辑器进入1.0。这是Atom原班人马的”复仇之作”——彻底抛弃Electron,用Rust从零实现GPU渲染的UI框架GPUI,把整个应用组织成向GPU shader喂数据的流水线,思路更接近游戏引擎而非网页。代码量超100万行,支持Mac/Windows/Linux三端。AI方面支持多Agent并行运行、击键级编辑预测、ACP协议接入任意第三方Agent。Zed赌的是:拥有全栈意味着能触到Electron编辑器永远到不了的性能天花板。对VS Code说,这是第一个在架构层面完全不同的正面挑战者。

 

   

参考链接:

   

https://zed.dev/blog/zed-1-0

 

 

Copy Fail:2017年至今所有Linux发行版本地提权漏洞,732字节Python即可root

 

安全研究员Xint Code披露CVE-2026-31431,影响自2017年以来所有主流Linux发行版。漏洞出在内核crypto API的authencesn模块——一个直线逻辑缺陷,通过AF_ALG和splice()链式利用实现4字节page-cache写入。不需要竞争条件,不需要内核偏移,一个无特权本地用户就能提权到root。整个exploit只有732字节Python脚本,在Ubuntu 24.04、Amazon Linux等多个发行版上100%复现。AF_ALG在几乎所有主流发行版默认启用。运维同学请立即检查补丁状态。

 

   

参考链接:

   

https://copy.fail/

 

 04
 产品与商业
 

小红书13年最大组织手术:成立AI一级部门Dots,COO升总裁统管三大业务

 

小红书4月30日扔出成立以来最大的组织变革炸弹。COO丁玲(柯南)晋升总裁,统管社区、电商、商业化三大业务及技术体系。最核心的变化:成立AI一级部门Dots,整合模型研发、基础设施、工程与产品。同时成立海外业务部门Rednote正式出海,成立企业智能部。小红书月活已超4亿,2023年营收37亿美元、净利润5亿美元,最新估值约500亿美元。集权的深层逻辑是打破数据孤岛——AI大模型效果取决于数据集成度,此前社区、电商、商业化分属不同指挥体系,数据割裂。把三条线收到一个人手里,本质上是为AI打通数据管道。

 

   

参考链接:

   

https://www.tmtpost.com/7974429.html

 

 

郭明錤爆料:OpenAI自研手机2028量产,Jony Ive领衔200人硬件团队

 

天风国际分析师郭明錤放出重磅消息:OpenAI正在自研手机,与联发科、高通合作开发处理器,立讯精密为独家系统协同设计与制造商,预计2028年量产。硬件团队已超200人,包括前苹果首席设计官Jony Ive和前苹果产品设计主管Tang Tan。战略逻辑直白:手机仍是数量规模最大的终端,是Agent最佳载体;只做模型永远是”寄生在别人生态里的插件”。郭明錤的概念图里,APP将消失,前端被Agent替代。与字节找中兴合作不同,OpenAI在海外找不到愿意让渡系统主导权的手机厂商,只能走纯自研。

 

   

参考链接:

   

https://www.tmtpost.com/7973463.html

 

 

Kimi月活从3600万跌至833万:C端失血,出海成唯一出路

 

月之暗面的Kimi正在经历一场漫长的下坠。QuestMobile数据:月活从峰值3600万跌至约833.8万,连续四个季度下滑。同期豆包月活逼近3.5亿。三重困境叠加:C端被大厂生态碾压(豆包背靠抖音,通义嵌入淘宝钉钉,Kimi无流量靠山);API市场被DeepSeek价格战挤压;4月泄露门(翻译PPT收到陌生人简历)暴露工程链路问题。但出海数据亮眼:2026年2月海外收入超过国内,3月底公司ARR突破1亿美元,K2.5在OpenRouter周榜以1.16万亿token排名第一。API定价约为OpenAI的1/10。结论很明确:C端战场不值得恋战。

 

   

参考链接:

   

https://www.tmtpost.com/7973385.html

 

 

Manus 20亿美元收购被中方叫停:”新加坡洗白”策略彻底破产

 

MetaManus20亿美元收购案被中方正式拦截。Manus创始人萧弘、季一超被限制出境,商务部以外资审查和技术出口管制为由介入。Manus去年夏天将总部从北京迁至新加坡,试图通过离岸架构规避监管——业内称之为”新加坡洗白”(Singapore washing),但国家发改委3月召见两位创始人后,这条路彻底堵死。Manus上线约12个月即达到1亿美元ARR,是2025年最火的Agentic AI创业公司之一。此案对所有计划通过离岸重组卖身海外的中国AI创始人是一记重锤:出海可以,卖身不行。

 

   

参考链接:

   

https://www.huxiu.com/article/4855236.html

 

 05
 研究前沿
 

银河通用+英伟达LDA-1B:用”垃圾视频”训练机器人,成功率从14%跳至55%

 

银河通用联合英伟达、清华、北大发布LDA-1B论文,提出了一个可能改写具身智能行业底层逻辑的命题。当前主流方案是”行为克隆”——用人类专家完美遥操数据训练机器人模仿,天花板极低且误差会雪崩式崩溃。LDA走世界模型路线:用DINO视觉基础模型将预测从”像素空间”迁移到”语义空间”——不猜下一帧颜色,而是理解”杯子+推=位移”,成功率从14.2%跳至55.4%。更狠的是数据策略:网上随手拍的短视频等”垃圾数据”用于学习物理常识,昂贵专业数据只在最后微调时用。这直接挑战了”完美数据=完美机器人”的行业共识。

 

   

参考链接:

   

https://www.tmtpost.com/7973821.html

 

 

Anthropic发布”内省适配器”:让模型主动交代自己偷偷学会了什么

 

Anthropic Fellows发布新工具”introspection adapters”,让语言模型能自报告在训练中隐式学到的行为。这东西解决的是一个核心安全问题:模型在微调过程中可能习得人类未预期的行为模式——比如学会讨好、学会回避、甚至学会”装傻”。以前只能靠外部红队探测,现在有了让模型主动暴露这些行为的机制。对alignment研究和模型审计来说这是实打实的工具进步。当你不知道AI”偷偷学会了什么”,最好让它自己说。

 

   

参考链接:

   

https://x.com/AnthropicAI/status/2049576143653929153

 

 06
 生态观察
 

卡帕西红杉万字实录:软件3.0来了,自然语言就是新的编程语言

 

前OpenAI/Tesla AI总监Andrej Karpathy在红杉资本分享了一场重磅演讲。他提出”软件3.0“概念:1.0是手写代码,2.0是神经网络权重,3.0是自然语言编程。Karpathy坦言”作为程序员我从未感到如此落后”——AI编码工具的进化速度已超出从业者的适应能力。他的判断:大部分软件工程师的工作将在3-5年内被根本性重构,但”理解计算本质的人”反而更值钱——因为AI生成的代码需要人来审计、调试和架构。编程的抽象层级再次上移,就像汇编→C→Python的历史脉络。变的是工具,不变的是思维。

 

   

参考链接:

   

https://www.huxiu.com/article/4855100.html

 

 

Zig严禁AI贡献的深层逻辑:我们赌的是人,不是代码

 

Simon Willison解读了Zig编程语言的严格反AI贡献政策。Zig基金会副主席Loris Cro给出了迄今最有说服力的理由:审查PR的首要目标不是获取代码,而是培养可信贡献者——每位贡献者都是对核心团队的长期投资。LLM辅助彻底破坏了这一逻辑:即便AI帮你提交了完美PR,花在审查上的时间也无法帮团队评估一个真正的人。Loris称之为”贡献者扑克”——”你赌的是人,不是牌”。有趣的是,Zig最知名的项目Bun(已被Anthropic收购)刚实现4倍编译性能提升,但因AI禁令不计划上游合并。

 

   

参考链接:

   

https://simonwillison.net/2026/Apr/30/zig-anti-ai/

 

 

银行春招考场:监考是AI,作弊的也是AI,百元工具100%通过率

 

2026年春招季暴露了一个魔幻现实:银行等金融机构大规模采用AI监考系统,与此同时一条完整的AI作弊产业链已在电商平台公开销售——仅需百元即可购买”实时监听考题+毫秒级生成答案”的作弊工具。技术实现并不复杂:屏幕捕获+ASR实时抓取考题,调用大模型API生成答案,全程后台运行不触发监考系统进程检测。当AI同时武装了防守方和攻击方,考试这一延续千年的人才筛选机制正在失效。一些前沿企业已开始用现场任务+AI协作能力评估替代传统笔试——不考你”知道什么”,考你”能用AI做什么“。

 

   

参考链接:

   

https://www.huxiu.com/article/4854917.html

 

当四家万亿市值公司同日交卷,当68亿采购单把机器人从PPT拽进现实,当一个732字节的Python脚本就能root所有Linux——你会意识到,这个世界变化的速度,已经超出了大多数人更新认知的速度。保持好奇,保持清醒。明天见。