乐于分享
好东西不私藏

AI每日新闻——苹果摊牌了:iOS 27把Siri塞进相机,iPhone正式变成“AI眼睛”

AI每日新闻——苹果摊牌了:iOS 27把Siri塞进相机,iPhone正式变成“AI眼睛”

大家好,我是AI视听小学生。

苹果,终于对相机动手了。

据多位知情人士透露,iOS 27 将在相机应用中新增一个全新的「Siri 模式」,把原本藏在“相机控制”实体按键背后的视觉智能功能,直接搬到相机主界面,和照片、视频、人像并列。

你没看错,以后打开相机,除了拍照录像,还能直接让 AI 帮你「看世界」。

这不是一次小修小补,这是苹果对 iPhone 相机角色的一次根本性重新定义。


一、从“拍摄工具”到“认知入口”,相机的身份变了

过去十几年,手机相机的进化路径非常清晰——像素更高、夜景更亮、变焦更远。所有厂商都在同一条赛道上疯狂内卷硬件参数。

但 iOS 27 这一刀,切换了赛道。

苹果的逻辑是:相机不应该只是一个「记录设备」,它应该是人与物理世界之间的 AI 感知层

具体怎么理解?

当你在 Siri 模式下举起手机,快门按钮会变成 Apple Intelligence 专属的视觉风格按钮,取代传统的白色拍摄键。这个设计细节很小,但信号极强——它在告诉用户:你现在不是在拍照,你是在「提问」。

对着一张海报扫一下,AI 自动提取活动时间、地点,直接帮你创建日历日程。

对着一朵不认识的花拍一下,AI 精准识别品种,告诉你它叫什么、怎么养。

对着一家餐厅门头拍一下,AI 直接检索出菜单、联系方式、营业时间。

相机从「拍下来」进化成了「看懂它」。

这个转变,意义远比多加一个滤镜大得多。


二、功能拆解:五大核心能力,招招瞄准日常刚需

Siri 模式不是一个花瓶式的技术演示,苹果这次把功能设计得非常「接地气」。

逐个拆开看——

1. 场景问答,直接调用 ChatGPT

对着任何场景拍一下,就能用自然语言提问。比如对着一道菜问「这大概多少卡路里」,对着一段外文路标问「这是什么意思」。背后接入的是 ChatGPT 的多模态能力,等于把一个随身视觉助手塞进了相机里。

2. 谷歌反向图片搜索,一键溯源

看到一件好看的家具、一双想买的鞋,Siri 模式下拍一张,直接执行反向图片搜索,帮你找到同款商品、出处来源。这个功能对购物党来说,简直是效率核弹。

3. 营养成分自动扫描

这是 iOS 27 预计新增的自研算法能力——对着食品包装的营养成分表拍一下,自动识别并记录数据。健身人群、控糖人群、过敏体质的用户,再也不用手动输入那些密密麻麻的小字了。

4. 动植物精准识别

不只是「看起来像什么」,而是给出具体的品种名称。带孩子逛公园、出门徒步旅行,手机一举就是一个随身博物学家。

5. 联系人信息直接入库

对着名片或屏幕上的联系信息拍一下,AI 自动识别姓名、电话、邮箱,直接保存到通讯录。纸质名片交换这个场景,被彻底数字化了。

五项能力,每一项单拎出来都不算惊天动地,但组合在一起塞进相机原生界面,体验质变就出现了

这就是苹果最擅长的事——不一定是第一个做的,但一定是第一个把体验做到「你妈都会用」的。


三、为什么是相机?苹果的入口战争逻辑

这里有一个值得深思的问题:苹果为什么选择相机作为 AI 的核心入口,而不是 Siri 语音助手本身?

答案藏在用户行为数据里。

相机是全球智能手机上打开频率最高的原生应用之一。绝大多数用户每天至少打开一次相机,很多人一天打开十几次。

反观 Siri,坦率讲,过去几年的用户活跃度一直不算亮眼。很多人对着 Siri 说话还是觉得尴尬,尤其在公共场合。

苹果想明白了一件事:与其让用户专门去找 AI,不如把 AI 放在用户本来就会去的地方。

相机就是那个地方。

举起手机、对准目标、按下快门——这套动作人类已经肌肉记忆了。现在苹果只是把快门背后的响应,从「拍一张照片」扩展成了「理解这个世界」。

交互成本几乎为零,但能力边界被指数级拓宽了。

这才是真正高明的 AI 产品设计——不是创造一个新习惯,而是在旧习惯里注入新能力。


四、行业坐标:苹果这一步,逼所有厂商重新定义“相机”

放到整个行业里看,iOS 27 的这个动作,影响面会非常深远。

谷歌的 Google Lens 其实很早就做了类似的事,但它是一个独立功能入口,用户需要主动去找它、打开它。三星 Galaxy 系列也有 Bixby Vision,但存在感同样不强。

苹果这次的不同在于——它直接把 AI 视觉做成了相机的原生模式

不是一个需要额外打开的 App,不是一个藏在设置里的开关,而是和「拍照」「录像」平级的基础功能。

这个产品决策背后的潜台词是:视觉 AI 不是相机的附加功能,它就是相机的未来。

可以预见,今年下半年开始,安卓阵营一定会跟进。OPPO、小米、vivo 的影像旗舰发布会上,大概率会出现类似的「AI 相机模式」。

但问题在于,苹果有几个别人短期内很难复制的优势:

  • Apple Intelligence 的端侧推理能力,隐私数据不出设备

  • 与 ChatGPT 的深度合作,多模态问答能力直接可用

  • 系统级整合,识别结果可以无缝流转到日历、通讯录、健康等原生应用

这不是单点功能的比拼,这是生态能力的降维打击


五、真正的变量:当十亿部 iPhone 都装上“AI 眼睛”

最后聊一个更大的事。

目前全球活跃 iPhone 数量超过 12 亿部。当 iOS 27 在今年秋季正式推送,哪怕只有一半用户升级,也意味着 6 亿部设备瞬间具备了 AI 视觉感知能力

这个规模,会催生什么?

对普通用户:手机真正变成了「第二双眼睛」。看不懂的东西拍一下就懂了,记不住的信息拍一下就存了。AI 的价值不再是一个抽象概念,而是每天都在用的直觉。

对开发者:苹果大概率会开放相关 API,第三方应用可以接入 Siri 模式的视觉能力。想象一下,家装 App 对着房间一拍自动出设计方案,教育 App 对着题目一拍自动讲解思路。一个全新的应用生态正在打开。

对整个 AI 行业:苹果用最简单粗暴的方式,完成了一件所有 AI 公司梦寐以求的事——让多模态 AI 走进十亿级用户的日常生活。不需要下载新 App,不需要学习新交互,打开相机就行。

按照惯例,iOS 27 将在今年 6 月的 WWDC 上首次亮相,秋季随新 iPhone 一起正式推送。


写在最后

回头看苹果这两年的 AI 策略,思路已经非常清晰了——

不争「最强」,争「最近」。

不跟 OpenAI 比模型参数,不跟谷歌比技术论文,而是想尽一切办法,把 AI 能力塞进用户每天都会碰的那些触点里

通知摘要是一个触点,邮件回复是一个触点,现在,相机变成了最大的那个触点。

当 AI 不再需要被「打开」,而是随时随地「就在那里」的时候,真正的 AI 时代才算开始。

而苹果,正在用 12 亿部 iPhone,把这个时代的起跑线画给全世界看。

你觉得 Siri 模式会改变你使用相机的方式吗?评论区聊聊。

Tips:有你们的支持,就是我最大的动力~~~