苹果iOS 27要出Siri相机?
七号早上
6月WWDC的聚光灯还没打亮,各种更新小道消息已经漫天飞了,iOS 27的Siri相机模式一出手,以后遇事不决举起手机就对了。
每年6月,库克和费德里吉照例要在Apple Park的舞台上整点大活儿。今年重头戏是iOS 27,直接把Siri和原生摄像头绑在一起。简单说,就是你打开相机,Siri能看懂你拍的是啥,还能顺手帮你查百科、做翻译,甚至直接调地图和备忘录干活。
开发者那边也没闲着,苹果早就备好了API文档和沙盒环境,就等着第三方应用无缝接入这套多模态识别框架。
其实这也不是苹果第1次在视觉AI上发力。从2024年iOS 18内置的视觉智能,到iOS 15时期的实况文本,苹果早就把看图识字玩熟了。不过这次升级,直接把Siri从云端语音助手拽成了端侧多模态智能体。
面对安卓阵营在AI手机上疯狂卷参数,苹果这回算是把自家A系列芯片的神经引擎彻底压榨出来了。网友都调侃,Siri总算摘掉人工智障的帽子,进化成能看图说话的明白人了。
当然,新玩法也有代价。端侧大模型对NPU算力要求极高,搭载A15芯片以下的老机型大概率只能望机兴叹。不少果粉一边期待所见即所问的丝滑体验,一边默默捂紧钱包:懂了,苹果AI的尽头,终究是硬件换机广告。

回溯一下历史,这套路跟2008年App Store上线时简直如出一辙。当年开放接口直接催生了百万级应用生态,现在把多模态视觉接口放开,大概率又会孵化出一堆AI原生应用新物种。
跟谷歌的Google Lens比起来,苹果更死磕本地隐私和端侧算力,主打一个数据不出设备,响应快如闪电。
说白了,苹果这次是把手机从单纯的拍照工具,升级成了能实时感知环境的数字器官。物理世界的文字、路标、商品纹理,扫一眼就能变成你备忘录里的待办清单。
以后出门在外,信息获取的摩擦成本直线下降,打工人跑外勤、查资料都能少掉几根头发。
技术再炫酷,最后拼的还是懂不懂人。苹果这波操作,表面上是卷视觉AI,底层逻辑其实是把主动打开App搜索的旧习惯,悄悄替换成举起手机即问即答的无感交互。
对于每天在信息洪流里扑腾的我们来说,少划几次屏幕、少切几个后台,省下来的那几分钟发呆时间,可能就是今天唯一能喘口气的缝隙。
点个"关注"吧,也为咱这个同路搬砖人鼓把劲😂
夜雨聆风