乐于分享
好东西不私藏

AI每日资讯 – 软件不再需要界面了——Salesforce、OpenAI、微软、Google同一周宣布同一件事

AI每日资讯 – 软件不再需要界面了——Salesforce、OpenAI、微软、Google同一周宣布同一件事

一句话总结

本期播客聚焦OpenAI算力激增三倍至30GW,分析AI计算需求爆涨引发的芯片、能源瓶颈及行业趋势。

核心要点

OpenAI计划2030年部署30GW算力,较年初目标提升三倍,接近纽约州峰值用电。

AI推理需求已远超训练,推动专用推理芯片和集群兴起,英伟达、Cerebras等布局。

计算和能源供应全面紧张,GE Vernova订单积压1630亿美元,股价大涨。

谷歌和Anthropic超75%代码由AI生成,AI编程渗透率持续攀升。

OpenAI发布15亿参数隐私过滤器模型,专用于本地PII脱敏,性能领先。

行业趋势:训练与推理芯片分离,开源小模型针对特定任务优化。

行业新闻

OpenAI将2030年算力部署目标从10GW提升至30GW——三倍于年初公布的计划。作为参照,去年底全球AI数据中心总容量约为30GW,30GW也大约等于整个纽约州的峰值用电。OpenAI称去年算力供应已从0.6GW增至1.9GW,目前已”锁定”超过8GW。背景是Agent崛起带来的推理需求暴增:多数观察者认为Anthropic正因算力不足导致Opus性能下降和一系列怪异决策,OpenAI则借GPT Image 2.0发布时暗示自己”算力充足,随时欢迎转投的客户”。

能源供应成为更深层的瓶颈。Semi Analysis暗示GE Vernova(燃气轮机供应商)已接近产能极限——”100GW合同在手,到2030年只剩10GW产能,定价双位数上涨,竞争对手直接停止接单”。GE Vernova随后发布炸裂财报(EPS $17.44,预期$1.67),订单积压达1630亿美元,而今年预计营收仅450亿。Nate Silver的评论很精辟:AI泡沫论已经从”没人要用”转向”需求大到算力太贵供不起”。

Google发布第八代TPU,首次分为训练芯片和推理芯片两个版本。推理芯片优化内存带宽以降低Agent任务延迟,训练芯片则侧重算力吞吐。训练与推理基础设施分离正在成为行业趋势——英伟达下一代Rubin架构将加入Groq芯片优化推理,OpenAI也与专注推理的Cerebras签了合作。但半导体分析师Patrick Moorehead认为Google TPU的影响有限——”这不是Google挑战英伟达,是Google为自己的服务找更多选择”。

Sundar Pichai更正数据:Google 75%的新代码现在由AI生成(此前财报电话会上说的是50%),明显是对Boris Cherney”Anthropic基本100%代码由AI写”的回应。

OpenAI发布了一个15亿参数的开源隐私过滤器模型,专门用于本地检测和脱敏个人身份信息(PII),每次查询仅激活5000万参数,在隐私过滤基准上达到97%的SOTA分数。值得关注的趋势是:大实验室是否会更多地发布这类针对特定任务调优的超小开源模型。

Mistral可能加入Elon Musk的”AI超级联盟”。此前SpaceX已与Cursor签署可能包含收购的合作协议,现在Business Insider报道Musk向Mistral提出了三方合作的构想。xAI上个月已挖走了一名Mistral早期创始团队成员。

主题深度讨论:”无头软件”时代——当Agent成为软件的主要用户

同一周内,四大平台几乎同时宣布了指向同一方向的产品:软件正在”去掉头”(UI),让Agent通过API直接操作。

Salesforce:Headless 360

Salesforce联合创始人Parker Harris的开场问题是:”你为什么还需要登录Salesforce?” Headless 360把整个Salesforce和Agent Force平台暴露为API、MCP和CLI——Agent不用打开浏览器、不用点击界面,直接调用API完成工作。Benioff在推特上的原话是:”不需要浏览器,API就是UI。”过去25年使用Salesforce意味着客服打开一个控制台、点进一个案例、手动更新状态。现在Agent也是”用户”——但它们不点击,它们调API。Slack上的自定义Agent自1月以来增长了300%。审批、决策、完整工作流全部在对话界面内完成,”对话即界面”。

OpenAI:Workspace Agents

OpenAI的版本是让组织设定权限和控制,团队和个人可以自建Agent来处理日常知识工作——回消息、准备报告、监控频道。基于云端运行(你不在ChatGPT时它们也在工作),天然支持团队共享,可以添加记忆。Simon Smith的定位很准确:”介于Custom GPTs和Open CLAW的复杂度之间。”OpenAI给了五个内部案例:软件请求审批Agent、产品反馈路由Agent、每周指标报告Agent、外展获客Agent、第三方风险评估Agent。

Microsoft:Hosted Agents

Nadella的表述是:”每个Agent都需要自己的一台电脑。”Hosted Agents让Foundry客户在微软基础设施上运行Agent,每个Agent获得独立的企业级沙盒、持久化文件系统、身份治理。关键是——多模型、多Harness,明确不锁定。微软在公告里自己写道”支持OpenAI、Anthropic、Meta、Mistral等模型,任何编排框架,无锁定”。

Google:Gemini Enterprise Agent Platform

Google Cloud Next大会上Agent是绝对主角。核心发布是统一平台Gemini Enterprise(实质上是Vertex AI的重品牌+大升级),新增治理和安全控制层。Google Cloud CEO Thomas Kurian说客户行为发生了战略性转变——Vertex AI的主要用例从传统机器学习”突然爆发式转向”用户自建AI Agent。配套发布了Data Agent Kit(Agent技能和插件集)、Knowledge Catalog(企业级统一上下文引擎)、Gemini for Google Slides(支持品牌风格和模板)等几十项功能。Silicon Angle的判断是:Google不是在发布功能,而是在试图建造”Agent企业的操作系统”——当模型性能趋同商品化、推理成本持续下降时,控制层就是新的争夺高地。

这意味着什么:商业模式的根本性动摇

Aaron Levy(Box CEO)把四个公告串在一起后写道:当Agent使用软件的频率是人类的100倍时,软件去掉UI是必然的。而且这对平台来说可能是好事——Agent 7×24小时工作、可以并行、可以跨系统串联。以前一个人一天最多处理几十个合同审查,Agent可以审查全部;以前一个营销团队一个月跑几个Campaign,Agent可以同时跑十倍。平台的使用率会从严重不足变成远超想象。

但商业模式必须跟着变。JB Barreto的分析很尖锐:SaaS按席位收费二十年了,整个商业模式假设”一个人登录、点击、从仪表板获取价值”。Agent不登录,它们发API调用。当一家公司跑50个Agent、每个Agent一天的API调用量超过整个销售团队一个月的操作量时,按席位收费就完全不适用了。”第一批搞清楚Agent定价的公司会吃掉下一个周期。还在按席位收费的会被甩在后面。”

谁能捕获这轮新价值?辩论三方都有道理。一方认为是AI实验室(OpenAI、Anthropic)——它们在建与垂直无关的通用Agent基础设施;一方认为是现有的记录系统(Salesforce、ServiceNow、Workday)——它们坐在所有Agent都必须读取的数据schema上,实质上成了收过路费的”收费公路”;还有一方认为是新一代Agent原生创业公司——它们把Salesforce和HubSpot当”哑后端”,Agent本身才是产品,SaaS只是数据库。

HubSpot创始人Dharmesh Shah的提醒值得注意:Headless不等于Brainless。”你不能只是把现有API包一层MCP就完事了——必须认真设计Agent体验。我们需要搞清楚Agent到底想怎么使用我们的产品和平台,因为如果它们只是想像人一样用,我们已经有Computer Use了。”

最后一个容易被忽略的角度:Aaron Levy指出现实世界的企业有遗留技术栈要现代化、有碎片化工具要整合、有非数字化知识要捕获、有变革管理要推进——而且这些都得在日常业务正常运转的同时完成。这就是为什么OpenAI正在和埃森哲、凯捷、PwC合作销售Codex。每一波新技术都会催生一批新的咨询公司,这一波也不例外。人不会消失——反而会有大量新的机会。

提到的产品/技术

OpenAI

Anthropic

Cerebras

GE Vernova

Mistral

Cursor

对 Vibe Coder 的启发

关注AI推理专用芯片和能源供应链的投资机会,提前布局算力瓶颈带来的市场变化。

🎧 扫码收听音频版

扫描下方二维码,收听完整音频 & 查看原文

觉得有用?点个 在看 和 关注 支持一下