四月走到中段, 六月的WWDC26开始数日子, 邀请函里写着分享AI新进展, 目光全落到iOS 27, 彭博的Mark Gurman给到一轮细节, 新Siri被端到台前, 这次像是换了活法。

主屏很可能多出一个Siri图标, 不再躲在听写键和唤醒词后面, 点进去的感觉更像信息, 对话气泡排开, 底部是文本框, 输入直接发, 不用在安静场合对着手机开口, 设个开关切成纯文字模式就行, 看起来像在跟同事打字聊天, 历史记录也跟着补上, 查过的链接和回答留在会话里, 临时切个界面回来还能接着往下聊, 这块过去一直缺, 这回一起补全。
交互的节奏也在变, 不再一问一答收尾就断, 多步复合指令被摆上桌, 一句话把几件事串起来, 类似这样, 查下西安明天的天气, 给同事发条消息约下午三点去商场看店, 在日历里放个提醒, 语义里带人名地点时间, 系统接住后在信息和日历之间把流程走完, 用户看确认就能落地, 私人助理的感觉更接近日常用法, 少了来回切换的那种割裂。
输入不止是声音和文字, 对话框接收图片和PDF, 扔进去让它概括要点, 提取联系人和日期, 在长文里找表格里的关键数值, 工作流更像一条线连起来, 第三方AI应用擅长的事, 系统内把路径打通, 少开几个应用, 少存几份临时文件, 操作合并到一处。
去年的iOS 26把Apple Intelligence的架构铺好地基, 今年的iOS 27把Siri推到生态中央, 独立化和App化像是一次位置移动, 从被动唤起变成主动打开, 如果复合指令和会话记忆按爆料推进, iPhone的使用方式会往AI硬件方向再走一步, 常用的日程和消息和文件, 在同一条会话里完成, 六月舞台上的展示值得看细节, 关键在系统级权限和隐私边界怎么做平衡。
习惯语音助手但受限于听写噪音和识别环境的用户, 可以等一等, 两个月时间不长, 等官方把功能清单摊开, 看文本模式的入口位置, 看历史记录怎么同步, 看多模态在相册和文件App里的接入方式, 国行Apple Intelligence的落地时间也很关键, 生态闭环完整度影响使用频次。
面对一个有独立界面, 能接长指令, 能记住对话上下文的Siri, 手机里的其他AI应用怎么取舍, 是把常用问答留给系统, 专项创作留给第三方, 还是继续并行放着各取所长, 欢迎在评论区说说你的实际场景和期待, 哪些功能上线就能立刻加入你的日常流程, 哪些地方还需要打磨才能成为高频入口。
夜雨聆风