乐于分享
好东西不私藏

Google AppFunctions 发布,Android 17 要变 AI 操作系统

Google AppFunctions 发布,Android 17 要变 AI 操作系统

Google 刚刚给 Android 系统动了个大手术,核心目标就一个:让 AI 助手能直接操作你手机里的每一个 App。这可不是简单的语音指令,而是 AI 能像人一样,点开相册、选照片、发消息,甚至帮你订个复杂的披萨。

  • 新功能叫 AppFunctions,是个 Jetpack API,让开发者把 App 功能打包成“积木块”,AI 助手可以直接调用。
  • 如果 App 没适配,Google 还准备了个 UI 自动化平台 当后手,AI 能模拟点击操作,开发者一行代码都不用写。
  • 所有操作都在设备本地运行,隐私和速度有保障,敏感操作必须用户手动确认。

这玩意儿到底怎么玩?

讲真,这想法挺绝的。以前你跟 AI 说“给我看看上周拍的猫片”,它可能只会给你个网页搜索结果。现在,如果三星相册支持了 AppFunctions,Gemini 助手就能直接理解你的意思,打开相册 App,找到所有猫的照片,然后在你面前展示出来。而且这些照片会留在对话上下文里,你接着就能说“把第三张发给我妈”,或者“把这几张拼成个图”。

Google 的原话是,这相当于把后端服务声明的方式(类似通过 MCP 云服务器)搬到了手机上。跟 WebMCP 的思路有点像,但所有函数都在本地设备上执行,而不是在服务器上。说白了,就是让 AI 助手真正成为你手机的“总控台”。

没适配的 App 怎么办?UI 自动化顶上

Google 也明白,不可能所有 App 一开始都支持。所以他们还藏了一手:一个 UI 自动化平台。这相当于给 AI 装了个“外挂”,让它能模拟人的操作去点开 App、输入内容、点击按钮。

官方举的例子特别接地气:“为口味挑剔的家人订一份复杂的披萨”、“协调一次有多站点的同事拼车”、“重新订购上一次的杂货”。这些事现在你让 Gemini 助手干,它就算调用不了披萨 App 的专用接口,也能通过自动化点开外卖 App,一步步帮你把订单下好。Google 说这是“平台在干重活”,开发者零代码就能让 App 获得 AI 代理能力

隐私和落地,Google 想得挺明白

隐私是这事的命门。Google 这次强调,所有交互都设计为在设备上执行,用户有完全的可见性(通过实时视图或通知),可以手动覆盖 AI 代理的行为,像购买这类敏感操作必须用户强制确认。这算是把大家的顾虑提前堵上了。

至于什么时候能用上,目前还是早期测试版,而且只限于 Galaxy S26 系列。但 Google 的计划是,在 Android 17 里更广泛地推出这些功能。懂的都懂,这基本就是下一代 Android 的核心升级方向了。


留言聊聊
你觉得 AI 助手直接操作手机 App,是“真智能”还是“瞎折腾”?你更期待它能帮你自动完成哪件麻烦事?