苹果正在偷偷给AirPods装“眼睛”,而且最快今年9月就能端出来。但这眼镜不是让你偷拍的,而是专门给升级版语音助手当视网膜用的,这将是这家公司第一款为AI时代量身定做的穿戴设备。

目前这玩意已经搞完了设计验证测试,马上就要进生产验证阶段了。如果配套的智能功能调试得顺,咱们可能在秋季就能见到它;但要是那个还不怎么聪明的语音助手拖后腿,档期大概率还得往后挪。
耳机长眼,不看风景只看“懂”
这两边的微型镜头像素并不高,压根就不是为了去拍高清大片或者录Vlog。它们的任务很纯粹:捕捉你眼前的物体轮廓和环境特征,然后丢给端侧模型去认东西,最后通过声音告诉你答案是啥。
想象一下,满手是油的时候对着灶台的食材问一句“我能整点啥吃的”,它立马给你报菜名;或者在陌生街区,你不用掏手机,问一句“下一个转弯在哪”,它直接语音指路。这种不用动手的玩法,才是真·环境计算。
有网友吐槽说:“终于不用跟Siri玩猜谜游戏了,以前问它‘这啥’,它反问我‘你指的哪个它’,现在它总算长眼了。” 这种低分辨率的采像思路,其实既省了算力,又在某种程度上规避了隐私过度收集的雷区。
加长的耳柄与那颗“自我安慰”的灯
为了把这些光学模组塞进去,新款耳机的手柄部分比现在的Pro系列稍微拉长了那么一丁点,其余地方基本没动,戴上去估计大多数人也察觉不出啥大区别。
倒是那个为了“尊重隐私”搞出来的微型LED灯挺有意思。只要设备把视觉数据往云端传,小灯就亮起,意思大概是告诉周围的人“嘿,我在上传画面哦”。可问题来了,灯在耳朵上,你自己根本看不见。

所以这灯到底安慰了谁?有评论区老哥神评:“这灯主要是给旁边同事看的,方便我随时发现谁是告密精。” 不管咋说,这种设计至少表明苹果在试图做合规姿态,至于实际心理安全感有多少,就见仁见智了。
硬件明明好了,为啥还要拖到9月?
其实这玩意儿原计划是今年上半年亮相的,硬生生被还没打磨好的AI功能给拖黄了。说白了,耳机上的摄像头、传感器这些都好办,难的是背后的识别算法和交互逻辑——得准,还得快,更不能答非所问。
现在它处在DVT(设计验证测试)收尾阶段,下一步就是PVT(生产验证测试),这时候会有接近量产的版本跑出来。如果视觉智能的实战表现达不到库克他们的预期,继续跳票也不是没可能,毕竟苹果这几年没少干砍不成熟项目的事。
看看OpenAI和Meta都在疯卷AI硬件,苹果显然也不想在这块丢面子。但面子和里子得兼顾,与其急吼吼端个半吊子出来,不如多憋几个月,把“看了能懂”这件事做得顺滑点,哪怕这让一些盼新货的粉丝多等一阵子。
当穿戴设备开始“盯”着世界
从最早的线控切歌,到后来的按压呼出语音助手,再到现在直接让耳机“注视”周围环境,我们和机器的交流方式又在拐弯了。以后设备不光听你说话,还得帮你看路、认物、防坑,这种无感交互才是接下来的重头戏。

不过,今天长眼的可能是耳机,明天会不会是手表,后天会不会是眼镜?当越来越多的穿戴设备具备环境感知力,我们到底是为便利开了挂,还是为自己多了几个甩不掉的“监视器”,这事估计还得边走边看。
夜雨聆风