根据《The Information》最新报告指出,Apple 与Google 在AI 领域的合作比外界预想的更为紧密,Apple 不仅能直接在自家数据中心运行Gemini 模型,更能透过「模型蒸馏」技术将其转化为更轻量、高效的离线模型,这项变动将直接决定iOS 27 中Siri 的进化高度。

透过模型蒸馏,让Gemini 成为Siri 最强导师
Apple 这次获得了在自家数据中心执行Gemini 模型的完整权限,这让工程团队能够进行所谓的「模型蒸馏(Distillation)」技术开发。这项技术的核心在于利用Gemini 这种参数庞大的大型语言模型(LLM)作为「导师」,去训练、指导体积较小且精简的「学生」模型。
进一步来看,Apple 并非只是单纯将Siri 的请求外包给Google 伺服器,而是要吸取Gemini 的逻辑推理与计算模式,借此优化那些能在iPhone 本机端运行的AI 指令。
这种做法最大的优势在于效能与速度的平衡。小型模型所需的运算资源远低于云端大模型,因此能更流畅地在设备本地端执行任务。由于Apple 具备对Gemini 内部运算逻辑的存取权,这些「学生模型」不仅能模仿答案,还能学习其推导过程,代表未来的iPhone 即便在没有网路的环境下,也能拥有接近顶级AI 的处理能力。
终结ChatGPT 独占,Siri 变身AI 总管
除了底层核心的进化,iOS 27 最大的转变在于「Extensions」开放架构。未来使用者不再受限于ChatGPT,只要装置上安装了Gemini、Claude 或其他AI 应用程式,就能直接在Siri 设定选单中启用。换言之,Siri 将转型为一个通用的AI 启动器,用户能根据特定任务选择最适合的AI 代理。
这项策略显示Apple 正在放弃「独家合作」的模式,转而建立一个竞争平台。用户可以透过Apple Intelligence 设定,自行决定要由哪一个AI 服务来协助处理指令。因此,Apple 不仅避开了押宝单一厂商的技术风险,更透过App Store 的订阅分润制度,将第三方AI 服务转化为稳定的服务营收来源,这是一场极其聪明的商业布局。
iOS 27 具备记忆力与预测能力的全新Siri
这次深度合作的技术成果,预计将在今年6 月的WWDC 随iOS 27 正式亮相。

配合全新的底层技术,新版Siri 将拥有强大的「上下文记忆能力」,能够理解长期的对话语境,不再发生「问第二句就忘记第一句」的尴尬状况。此外,iOS 27 也将新增「Ask Siri」与「Write with Siri」等全新入口,并将Siri 与Spotlight 搜寻功能深度整合。
此外,主动式功能(Proactive features)也将是iOS 27 的重头戏。例如Siri 会根据交通状况主动提醒使用者提前出发前往机场,或是根据使用者的日常习惯给出预判性的建议。虽然Apple 内部的基础模型团队(AFM)仍在持续运作,但现阶段显然更倾向于结合Google 的技术优势,优先提升用户在日常操作中的智慧体验。
总结:Apple 这次的「拿来主义」很聪明
这次iOS 27 的变革,我认为是Apple 在AI 竞赛中最清醒、也最务实的一次决策。
过去Apple 总想关起门来自己搞,但面对生成式AI 浪潮的落后,选择「拿来主义」这种底层借Gemini 训练、介面开给各大AI 进驻,对用户来说绝对是好事。
因此,我们不再需要纠结哪个AI 最强,因为最强的那个都能在iPhone 上直接呼叫出来。
若是从技术面来看,模型蒸馏能让旧款iPhone 也有机会跑得动更聪明的Siri,这对延长手机寿命很有帮助。但这也说明Apple 自家的AFM 模型目前可能还难以独挑大梁,才会需要如此大规模的「外援」来救场。
如果你是重度AI 用户,iOS 27 绝对是近年来最有感的升级,等6 月WWDC 释出Beta 版后,我们也会持续留意相关的消息。
夜雨聆风