iOS 27 将开放 AI 模型选择:苹果终于想通了
彭博社这周爆了个大料:iOS 27 将允许用户选择第三方 AI 模型替代 ChatGPT。
作为一个既用 iPhone 又用 Claude 的开发者,我的第一反应是:苹果终于想通了。
◆ 封闭生态的困境
先说说现状有多难受。
iOS 18 的 Apple Intelligence 把 ChatGPT 深度集成到系统里。长按选中文本,"写作工具"弹出来;截图后点击编辑,AI 功能直接可用。看起来很美好,但问题是——我没得选。
我日常主力用 Claude,因为写代码和长文比 ChatGPT 强。但 iOS 系统级的 AI 功能,我只能用 ChatGPT。结果就是:
- •系统功能用 ChatGPT
- •我自己的 App 用 Claude API
- •两个模型的上下文完全不互通
更麻烦的是,Apple Intelligence 的 Extension 机制虽然存在,但几乎没人用。因为苹果把入口藏得太深,用户根本不知道可以切换。
iOS 27 的改变是:把 AI 模型选择放到系统设置里,像选择默认浏览器一样简单。
◆ 技术架构解析
根据彭博社的报道,iOS 27 引入了一个叫 "Apple Intelligence Extensions" 的新框架。
核心变化有三点:
1. 系统级模型切换
设置 → Apple Intelligence → 默认模型 → 可选 ChatGPT / Claude / Gemini / Perplexity
这个选择会影响:
- •Siri 的底层模型
- •写作工具(重写、校对、摘要)
- •Image Playground
- •视觉智能(Visual Intelligence)
2. 场景化模型配置
更细粒度的控制:不同场景可以用不同模型。
写作:Claude(长文本能力强)
编程:ChatGPT(代码解释器好用)
搜索:Perplexity(带引用)
图像:Gemini(多模态强)这个配置会被同步到 iCloud,Mac、iPad、iPhone 体验一致。
3. 开发者接入标准化
对开发者来说,最大的利好是统一的 Extension API。
以前想让我的 App 接入 Apple Intelligence,得单独对接 ChatGPT。现在只需要实现 Extension 协议,用户选择什么模型,我的 App 就自动用什么模型。
import AppleIntelligence
// 请求 AI 处理,系统自动调用用户选择的模型
let response = try await AIExtension.process(
request: .rewrite(text: userInput, tone: .professional)
)模型切换对用户透明,开发者也不用维护多套对接逻辑。
◆ 为什么苹果现在才开放
这个问题我思考了很久。
理由 1:ChatGPT 独家协议到期
iOS 18 和 ChatGPT 的合作是排他的。苹果付了大笔钱买独家,当然不愿意开放。现在协议快到期了,苹果有了谈判筹码。
理由 2:监管压力
欧盟 DMA(数字市场法)要求平台不能强制捆绑自家服务。AI 模型选择很可能成为监管焦点,苹果提前布局规避风险。
理由 3:模型能力趋同
一年前 ChatGPT 遥遥领先,现在 Claude、Gemini 在各自场景都有优势。用户需要选择,苹果再强行绑定 ChatGPT 反而降低体验。
理由 4:生态博弈
Google 给苹果每年 200 亿美元买 Safari 默认搜索。AI 模型选择可能是下一个竞价战场。苹果开放选择,可以收更多"过路费"。
◆ 对开发者的机会
机会 1:垂直场景 Extension
不要做大而全的 AI 模型,做特定场景的优化 Extension。
比如:
- •法律文本润色 Extension
- •医学术语校对 Extension
- •程序员代码审查 Extension
这些 Extension 可以接入 Apple Intelligence 的基础设施,专注做领域优化。
机会 2:跨模型工作流
利用场景化配置,设计跨模型的工作流。
比如我的早报系统可以这么设计:
1. 用 Perplexity Extension 搜索新闻(带引用)
2. 用 Claude Extension 生成深度分析
3. 用 Gemini Extension 生成配图提示词
4. 用 ChatGPT Extension 优化标题每个环节用最适合的模型,整体效果比单模型好很多。
机会 3:模型性能监控
用户有了选择权,就需要比较工具。做一款 App,对比不同模型在 iOS 上的响应速度、准确率、成本,会有市场需求。
◆ 我的预测
短期(iOS 27 发布前)
- •各大模型厂商会疯狂公关,争取成为"推荐选项"
- •开发者开始适配 Extension API
- •出现第一批垂直场景 Extension
中期(发布后 6 个月)
- •用户分化:普通用户用默认,专业用户精细化配置
- •模型厂商开始差异化竞争,不再追求全能
- •苹果推出"模型商店",抽成 30%
长期(1-2 年后)
- •AI 模型像浏览器一样,成为用户自主选择的工具
- •系统级 AI 功能完全中立,苹果只提供平台
- •出现"AI 代理"概念,模型自动选择最佳工具
◆ 踩坑预警
虽然开放是好事,但开发者要注意几个坑:
坑 1:模型行为不一致
不同模型的输出格式、风格差异很大。你的 Extension 如果用 Claude 的 XML 标签格式,切换到 ChatGPT 可能直接崩。
建议:在 Extension 层做标准化封装,屏蔽底层模型差异。
坑 2:隐私合规复杂化
ChatGPT、Claude、Gemini 的数据政策各不相同。用户切换模型后,你的 App 是否合规?
建议:在隐私政策里明确列出所有支持的模型及其数据处理方式。
坑 3:成本不可控
如果用户选择了 GPT-4 级别的模型,你的 Extension 每次调用成本可能暴涨。
建议:设置调用限额,或者让用户自行配置 API Key。
◆ 总结
iOS 27 开放 AI 模型选择,是苹果从"封闭花园"向"开放平台"转型的重要信号。
对用户来说,终于可以用自己喜欢的模型处理系统级任务。对开发者来说,Extension 机制提供了新的创业机会。
当然,现在还是爆料阶段,具体实现细节要等 WWDC 2026 才能确认。但从技术趋势来看,AI 模型选择的开放是不可逆的。
我已经开始重构我的 OpenClaw 集成方案,准备第一时间适配 Apple Intelligence Extensions。后续会分享更多踩坑记录,欢迎关注。
参考链接:
- •Bloomberg 原文:https://www.bloomberg.com/news/articles/2026-05-05/apple-plans-ai-model-choice-in-ios-27
- •Apple Intelligence 文档:https://developer.apple.com/apple-intelligence/
*本文首发于「老猿的龙虾铺」,转载请注明出处。*
本文首发于「老猿的龙虾铺」,转载请注明出处
夜雨聆风