从写代码到说人话建Agent,Google的AI平台变了
Google Cloud Next 2026这周在拉斯维加斯开,Thomas Kurian上台讲了个概念叫"The Agentic Cloud"——AI不再只是聊天,要升级成能自己干活的Agent。
但最让我注意的不是这个口号,而是一个动作:Vertex AI改名了。
新名字叫Gemini Enterprise Agent Platform。Agentspace也被合并进去了。
改名这件事本身就值得聊聊。一个产品改名,通常不是换个马甲那么简单,背后是定位变了、目标用户变了。
旧 vs 新:到底变了什么
三个最值得关注的变化
1. Workspace Studio:说人话就能建Agent
这是个无代码平台。以前想在Google Cloud上建个AI Agent,得写Python、配API、搞部署。现在业务人员用自然语言描述需求,系统自动生成Agent。比如你是HR,想做个自动筛选简历的流程,跟它说一句就行。
这个变化的意思很明确:AI工具的用户群从程序员扩大到了所有人。
2. Agent Designer:画流程图造Agent
目前还在preview阶段。它提供了一个可视化的画布,让你用拖拽的方式设计Agent的工作流程。比起纯文字描述,这种方式更适合处理复杂的多步骤任务。
说白了就是把编程逻辑变成了流程图,降低了理解门槛。
3. Partner Agent Marketplace:AI界的App Store
Salesforce、ServiceNow、Workday这些大厂的Agent可以直接在市场里找到。企业不用自己从头建,挑一个现成的装上就能用。
这个思路跟手机应用商店一样——你不需要自己写App,去商店下一个就行。Google在做的事情是把AI Agent的分发也平台化了。
Workspace Intelligence:给Google全家桶装AI大脑
这次还发布了一个叫Workspace Intelligence的东西。简单说就是把Gmail、Docs、Sheets、Meet这些Google应用全部打通,用AI做统一的实时理解。
举个例子:你在开会的时候,AI知道你昨天在Docs里写了什么、邮件里聊了什么,能给你更精准的建议。不是每个App各管各的AI,而是一个统一的AI理解层。
另外还有Agent Engine的Sessions和Memory Bank功能已经GA了。意思是Agent现在有了持久记忆,不再是每次对话都从头来。
跟普通人啥关系
直接关系:如果你在用Google Workspace的公司工作,以后你可能不需要等IT部门帮你做工具了。自己描述需求,系统帮你建。
间接关系:这是一个趋势信号。Google、微软都在往同一个方向走——让AI工具从"程序员专属"变成"人人可用"。微软有Copilot Studio,Google现在有Workspace Studio。
还有个有意思的数据:Sundar Pichai说2025年Google内部生产的代码里,超过25%已经完全由AI生成。Google自己说现在75%的新代码是AI生成、工程师审核。AI不只是帮人写代码,它正在成为主力写手。
判定:换皮还是真变?
真变。这不只是改个名字。
核心变化是用户群切换——从写代码的开发者到说人话的业务人员。Workspace Studio、Agent Designer、Marketplace三件套组合在一起,Google想做的是企业AI操作系统,而不是一堆API工具的合集。
但也别过度兴奋。Workspace Studio能不能真的让不会代码的人建出好用的Agent,Agent Designer还在preview,Marketplace的第三方Agent质量怎么样——这些都需要实际检验。
方向对了,落地还需要时间。
信源:blog.google、Google Cloud Blog、TechCrunch、Bloomberg、TechRadar、9to5Google
关注 AI小白闲聊
用大白话聊AI,不贩卖焦虑,只说有用的
夜雨聆风