🚨 OpenAI高层一日三出走,微软“背叛”转投Claude,中国Token日耗破140万亿,特斯拉自研芯片炸场,Meta狂裁8000人!
OpenAI停掉Sora后爆发离职潮,三大核心高管同日出走;微软打破排他协议,在GitHub Copilot等9大开发环境中首日集成Claude Opus 4.7;中国日均Token调用量突破140万亿,一季度再增40%;马斯克官宣特斯拉AI5芯片流片成功,性能提升40倍对标英伟达;Meta宣布5月20日裁员8000人,Quest VR因AI内存短缺全面涨价。今天这五件事,串起来就是一幅AI行业从“烧钱叙事”转向“算力效率”的产业地图。
📰 头条速览
🚨 OpenAI爆发离职潮,三大核心高管同日出走
4月17日,OpenAI科学研究项目负责人凯文·威尔、Sora负责人比尔·皮布尔斯、企业应用首席技术官斯里尼瓦斯·纳拉亚南三位核心高管同日宣布离职。此前OpenAI已决定关停Sora等C端“支线项目”,战略重心全面转向企业级AI业务及即将推出的“超级应用”。
🤝 微软打破排他协议,9大开发环境首日集成Claude Opus 4.7
4月17日,微软在Anthropic发布Claude Opus 4.7当日,即在GitHub Copilot等9大开发环境中完成集成,未来几周内Opus 4.7将取代4.5和4.6版本成为Copilot Pro+用户默认模型。此举打破微软与OpenAI的长期排他合作惯例,标志其AI策略转向多源支持。
🔥 中国日均Token调用量突破140万亿,一季度再增40%
4月16日,国家统计局在国新办新闻发布会上披露,截至今年3月,中国日均词元(Token)调用量突破140万亿,比上年末增长超40%,相比2024年初的千亿级别增长超千倍。Token正成为AI时代的核心计量单位。
⚡ 特斯拉AI5芯片流片成功,性能较前代提升40倍
4月16日,马斯克在X平台宣布特斯拉自研AI5芯片成功完成流片,单芯片AI算力最高达2500 TOPS,内存带宽提升5倍、容量提升9倍,综合性能较AI4提升40倍,单芯对标英伟达Hopper架构,双芯接近Blackwell级别,将用于FSD、人形机器人和数据中心。
📉 Meta宣布裁员8000人,Quest VR因AI内存短缺全面涨价
4月18日,Meta确认将于5月20日启动首轮大规模裁员,涉及约8000人(占员工总数10%),下半年还将进一步裁减。同日,因AI数据中心需求导致内存芯片成本飙升,Meta宣布Quest 3涨价100美元至600美元,Quest 3S涨价50美元至350美元。
🔬 深度解读
🚨 —— OpenAI一日三高管出走:Sora被砍、科学项目被肢解,“支线任务”全面收缩 ——
4月17日,OpenAI迎来了历史上最密集的一波高管离职潮:科学研究项目负责人凯文·威尔、Sora核心研究员比尔·皮布尔斯、企业应用首席技术官斯里尼瓦斯·纳拉亚南,三人同一天宣布离开公司。
这次离职潮的背景很清晰:OpenAI正在大幅收缩战略。上个月,公司正式关停了Sora视频生成工具,理由是避免“支线任务”。Sora的日均计算成本约为100万美元,这个烧钱速度显然超出了公司预期。皮布尔斯在离职声明中写道:“培育‘熵’(即不确定性与探索空间)是研究实验室维持长期繁荣的唯一途径”,暗示了他对公司“砍项目、聚焦商业”路线的不认同。
与Sora一同被边缘化的还有“OpenAI科学”项目。威尔领导的团队曾开发旨在加速科研进程的AI平台Prism,如今该团队正被“打散”收编至其他部门,Prism的功能将被折叠进Codex桌面应用。颇具戏剧性的是,就在威尔宣布离职的前一天,他的团队刚发布了用于加速药物发现的GPT-Rosalind模型。
更值得关注的是,公司首席运营官也在本月调任新岗位,另有两名高管因健康原因休假。在竞争对手Anthropic年化收入突破300亿美元的压力下,OpenAI正全力冲刺即将推出的“超级应用”——一个整合ChatGPT、Codex和浏览器的桌面平台,同时也在为可能的IPO铺路。
💡 小编瞎琢磨:
OpenAI这波操作,本质上是在做一道残酷的选择题:是继续维持多个“烧钱但炫酷”的前沿项目,还是集中火力打企业市场、做超级应用?答案已经很明确了。但问题在于,当一家AI实验室开始用“支线任务”来形容曾经引以为傲的探索项目时,它到底是在变“成熟”,还是在变“平庸”?更值得玩味的是,比尔·皮布尔斯离职信中那句“培育熵是研究实验室长期繁荣的唯一途径”——这位Sora的缔造者,似乎是在用自己的离开,向OpenAI的管理层投下了一张反对票。
🤝 —— 微软“背叛”OpenAI,GitHub Copilot首日换“芯”:AI大厂联盟格局正在瓦解 ——
如果说OpenAI的高管离职是“内忧”,那微软的动作就是“外患”。
4月17日,就在Anthropic发布Claude Opus 4.7的同一天,微软做出了一个令业界侧目的决定:在GitHub Copilot等9大开发环境中,首日完成对该模型的集成。更关键的是,未来几周内Opus 4.7将取代4.5和4.6版本,成为Copilot Pro+用户的模型选择器默认选项。
为什么说这件事意味深长?因为自2023年以来,微软一直是OpenAI的“铁杆盟友”,GitHub Copilot底层跑的一直是OpenAI的Codex模型。现在微软把Copilot的“默认引擎”换成Claude Opus 4.7,等于是在全球最大开发者生态中给Anthropic开了一道VIP通道。
逻辑其实很简单:Claude Opus 4.7的编程能力确实硬核。这款模型是Opus系列最强版本,专门针对复杂软件工程任务、长时任务稳定性和视觉理解做了大幅提升。当友商的编程能力明显领先时,微软的选择很务实——谁能帮开发者写出更好的代码,就用谁的模型。
对于OpenAI来说,这无疑是一记重击。GitHub Copilot覆盖了Visual Studio Code、Visual Studio、Copilot CLI等全球数千万开发者的日常工作环境,微软把默认模型换成Claude,等于是在最核心的编程场景中,把OpenAI从“主力”降级为“备胎”。
🍚 小编锐评:
AI大厂之间的“联盟”从来都是利益驱动,没有永恒的盟友。微软这一手,既是对Anthropic技术实力的认可,也是在向OpenAI传递一个信号:别以为你是唯一的选项。对开发者来说,Copilot能用上更强的Claude模型当然是好事;但对整个AI产业来说,这标志着“排他性合作”时代正在结束,“多模型共存”时代加速到来。以后企业选AI服务,可能不会再绑定单一模型,而是“哪个模型在哪个场景最强,就用哪个”。
🔥 —— 中国Token日耗破140万亿:AI的“水电煤”时代,中国正在领跑 ——
当美国巨头在战略调整和人事动荡中辗转时,中国的AI应用正在以惊人的速度“跑量”。
4月16日,国家统计局副局长毛盛勇在国新办发布会上披露了一个震撼数据:截至今年3月,中国日均Token调用量突破140万亿,比上年末增长超40%,相比2024年初的千亿级别增长超过千倍。
140万亿Token/日意味着什么?就在两个月前,今年2月9日至16日那周,中国模型Token调用量(4.12万亿)刚刚首次单周超越美国,MiniMax登顶全球大模型调用量榜首。如今短短一个季度,日均调用量又增长了40%。这个增速说明,中国的AI应用不是“少数人尝鲜”,而是已经进入了“全民使用”的量级。
毛盛勇还透露了一组更值得玩味的数据:一季度,规模以上数字产品制造业增加值同比增长11.2%,与AI生产和应用直接相关的电子专用材料制造、集成电路制造行业增加值分别增长32.5%和49.4%。AI的拉动作用已经从软件层延伸到硬件层,再传导到上游原材料和电力供应——整条产业链都在被Token经济的爆发式增长激活。
💡 小编瞎琢磨:
Token正在成为AI时代的“核心货币”。日均140万亿Token这个数字,不是一个冰冷的技术指标,而是中国AI商业化进入“规模化量产”阶段的直接证明。当Token调用量以每季度40%的速度增长时,意味着AI应用正在从“好玩”走向“好用”,从“尝鲜”走向“刚需”。更重要的是,这个增速倒逼着算力基础设施的同步扩张——国产算力芯片、数据中心、电力保障,每一个环节都在被Token的洪流推动着加速迭代。中国AI的优势,正在从“模型参数多”转向“应用场景多、数据量大、商业闭环快”。
⚡ —— 特斯拉AI5芯片流片成功:马斯克要自己造“AI大脑”,不再看英伟达脸色 ——
当大家都在卷模型和应用的时候,马斯克在卷芯片。
4月16日凌晨,马斯克在X平台宣布,特斯拉自研的AI5芯片成功完成流片,并向AI芯片设计团队表示祝贺。这枚芯片的规格堪称恐怖:单颗AI算力最高达2500 TOPS,内存带宽提升5倍、容量从16GB暴涨至144GB(提升9倍),综合性能较上一代AI4提升了40倍。
性能对标方面,单芯配置与英伟达Hopper架构(H100级别)相当,双芯配置则接近Blackwell架构的水平。但马斯克最在意的可能不是性能本身,而是成本——AI5在能效和成本上比英伟达方案更有优势,这意味着特斯拉正在减少对外部算力的依赖,逐步实现从算法到硬件的全闭环自主可控。
AI5的用途也不限于自动驾驶。据披露,这枚芯片还将为特斯拉人形机器人Optimus提供边缘计算所需的算力基础。马斯克的终极目标是把特斯拉从“纯硬件汽车公司”转型为“物理AI公司”,Robotaxi、Optimus、Dojo超算三位一体,AI5就是这个庞大体系的中枢神经。
不过,从流片到量产还有不短的路要走。流片后还需经历晶圆制造、封装测试、功能验证及车规级可靠性认证等多个环节,通常需要12至18个月。马斯克此前透露的量产时间点是2027年年中,较最初规划的2025年下半年已有所延迟。
🤔 小编观察:
特斯拉造芯片这件事,本质上是AI时代的“垂直整合”逻辑。当AI模型越来越大、推理成本越来越高,谁能把芯片和算法深度耦合,谁就能在性能和成本上获得双重优势。英伟达的通用GPU虽然强,但没法为每一家公司的特定AI工作负载做极致优化;自研芯片则可以在架构层面“量体裁衣”。特斯拉、谷歌(TPU)、亚马逊(Trainium/Inferentia)、微软(Maia)、Meta(MTIA)——科技巨头们正在集体走上“去英伟达化”的道路。不是英伟达不够好,而是当AI变成核心生产力时,没人愿意把命脉交到一家供应商手里。
📉 —— Meta裁员8000人,Quest因AI内存短缺涨价:算力饥渴正在“反噬”消费电子 ——
最后说说Meta,今天这家公司同时在两个方向上传来了令普通人感受最直接的消息。
第一则:裁员。4月18日,Meta正式确认将于5月20日启动年内首轮大规模裁员,涉及约8000人,占其全球员工总数的10%。知情人士还透露,下半年将有进一步裁员,高管团队可能根据AI技术发展情况调整计划。
这次裁员与2022-2023年“效率之年”的逻辑不同。当时Meta是迫于股价和财务压力裁员,现在Meta上一财年营收逾两千亿美元、净利润接近六百亿美元,财务状况非常健康。这次裁员的真正原因是:公司正在加速推进AI工具的研发与落地,从各业务线抽调核心工程人才组建全新团队“Applied AI”,聚焦AI智能体承担产品设计、功能验证及上线交付等主要环节,人类员工则退居“策略把关与质量监督”。扎克伯格年初就直言:2026年将是AI深度重塑工作形态的关键一年。
第二则:涨价。就在同一天,Meta宣布Quest VR头显全球涨价——Quest 3上调100美元至600美元,Quest 3S上调50美元至350美元。涨价原因直指AI:AI数据中心对内存芯片的旺盛需求导致供应紧张和成本飙升,VR头显成了被波及的“池鱼”。Meta在官方公告中坦言:“打造高性能VR硬件的成本已经显著上升。”
受影响的不仅是Meta。Valve的新产品因内存供应紧张而推迟发布,索尼也上调了家用游戏主机价格。苹果和微软此前已提高了部分笔记本电脑售价,三星也上调了部分手机售价。
💡 小编瞎琢磨:
Meta裁员和Quest涨价,表面上看起来是两件事,实际上是同一根链条的两端:AI算力需求爆炸→数据中心疯狂采购内存芯片→消费电子供应链被挤压→VR/手机/电脑涨价。这条传导链正在告诉我们一个残酷的事实:AI的繁荣是有代价的,而代价正在通过供应链传导到每一个普通消费者身上。你买Quest多花的100美元,本质上是在为AI大模型的训练“交税”。更深远的是,Meta用AI替代人力的战略一旦跑通,其他科技巨头几乎必然会跟进——全球科技行业今年已有7.3万人离开原有岗位,这还只是个开始。
💁♂️ 关咱啥事?普通人的实惠与冲击
💻 开发者们,你们的编程助手要升级了
GitHub Copilot默认模型换成Claude Opus 4.7,意味着全球数千万开发者将用上更强的AI编程能力。以后写代码、调Bug、重构系统,AI副驾会更聪明。但这也意味着,只会写基础代码的人,跟会用AI的人差距会进一步拉大。
🇨🇳 中国的AI应用正在“全民普及”
日均140万亿Token调用量,说明AI已经不再是少数技术爱好者的玩具,而是像水电一样渗透到千行百业。你用豆包写文案、用通义万相做视频、用DeepSeek查资料——每一次调用都在为这个庞大的数据洪流贡献流量。AI服务的成本会越来越低,免费额度会越来越大。
🚗 特斯拉车主们,你们的车要“换脑”了
AI5芯片量产虽然要等到2027年,但这枚芯片带来的算力跃升(性能提升40倍)意味着未来的FSD自动驾驶会更聪明、反应更快。如果你是特斯拉车主或潜在买家,AI5将是下一代车型最值得期待的硬件升级。
🕶️ 想买VR的人,要准备好“AI税”
Quest涨价不是孤例。从手机到电脑到游戏机,AI对内存芯片的虹吸效应正在推高所有消费电子产品的成本。如果你最近有换机计划,做好心理准备——价格可能比你预期的要高。
⚠️ 科技行业的打工人,AI替代不是远虑而是近忧
Meta用AI替代8000个岗位,全球科技行业今年已裁员7.3万人。这不再是“未来可能发生”的威胁,而是正在发生的事实。技能转型的速度,必须跟上AI替代的速度。
📈 趋势那点事:五条新闻串起来的行业地图
🔹 AI巨头从“烧钱扩张”走向“战略收缩”
OpenAI关停Sora、解散科学团队、高管集体出走——这些动作背后是一个清晰的信号:AI巨头正在从“百花齐放”的前沿探索,转向“聚焦核心”的商业化冲刺。IPO在即、竞争对手步步紧逼,每一分钱都要花在能产生收入的地方。
🔹 “排他联盟”瓦解,“多模型共存”成为主流
微软打破与OpenAI的排他协议,首日集成Claude Opus 4.7——这说明AI产业链上的“独家绑定”模式正在被“择优选用”模式取代。未来企业选AI服务,会更像在App Store里挑应用:哪个好用就用哪个,不再忠诚于单一供应商。
🔹 Token经济正在重塑AI产业的价值链
中国日均Token调用量突破140万亿,意味着AI的商业模式正在从“卖模型”转向“卖Token”。谁能承接海量Token调用,谁就能掌握结算能力和平台地位。Token正在成为AI时代的“石油”——不仅衡量用量,更决定产业链的利润分配。
🔹 垂直整合成为科技巨头的共同选择
特斯拉自研AI5芯片、Meta与博通合作研发2nm芯片——当AI成为核心生产力,巨头们不再满足于从英伟达“买显卡”,而是要自己“造芯片”。这不是对英伟达的否定,而是对供应链安全和技术自主权的必然追求。
🔹 AI繁荣的“代价”正在向普通人传导
Meta裁员8000人、Quest因AI内存短缺涨价——AI技术的进步正在通过“就业替代”和“供应链挤压”两条路径,直接影响普通人的工作和消费。AI越强大,这种传导就越明显。我们每个人都在为AI时代的到来“付费”,只是付费的方式各不相同。
🛠️ 今日挖宝:GitHub Copilot(Claude Opus 4.7加持版)
| GitHub Copilot(Claude Opus 4.7版) | 场景: 小编一句话:4月17日刚换“芯”的Copilot,底层模型从OpenAI Codex换成了Claude Opus 4.7——这是Opus系列最强的编程模型,在SWE-bench Pro上得分64.3%,断崖式领先GPT-5.4和Gemini。如果你是Copilot Pro+用户,未来几周会自动升级默认模型;如果你还没用Copilot,现在可能是最好的上车时机。花一份订阅费,用全球最强的AI编程助手,这个账怎么算都划算。 |
#OpenAI离职潮 #微软Claude集成 #Token经济 #特斯拉AI5 #Meta裁员 #Quest涨价 #AI供应链
💬 互动时间
家人们,今天这五条新闻看完,小编想问一个可能有点扎心的问题:
OpenAI高管出走、微软“叛变”转投Claude、Meta用AI替代8000人——你觉得AI行业的“大洗牌”才刚刚开始,还是已经到了中场?如果你现在是一名程序员、产品经理或者内容创作者,你觉得自己三年后还会做现在这份工作吗?
来评论区唠唠!小编蹲在后台等着被你们的犀利观点砸晕~
夜雨聆风