AirPods为AirPods配有摄像头,为空间计算更为AI?

2024-07-05

您有没有想过,耳机还会有一天配置摄像头?


耳机 相机,虽然不是没有类似的产品,但我们一般称之为“智能眼镜”,市场定位类似于随身相机和骑行记录仪。可以说拍摄功能是核心,而耳机功能只是顺便说一句。


毕竟从实际体验和产品设计出发,很难想象如何在无线耳机上增加摄像头。考虑到佩戴体验、电池寿命等方面的限制,这不是一个好主意,但苹果似乎不这么认为。


今年二月初,外媒报道苹果正在探索一些可穿戴设备的“未来可能性”。当时有传言说苹果正在计划AirPods和带摄像头的智能戒指。当时大部分声音都认为这只是苹果在实验室的尝试,很有可能不会转化为实际产品。



然而,现实总是更加奇妙。根据最新信息,苹果计划在2026年量产AirPods,该AirPods有一个红外摄像头模块。与这些信息相比,将屏幕塞在AirPods充电盒上的谣言是极其正常的。然而,如果我们把这两个信息结合起来,我们会画出一个全新的AirPods,一个无线耳机,配有屏幕,支持拍摄。这是什么?随身携带迷你相机?


这么多新事物都在一个小小的AirPods上折腾,苹果到底想干什么?


AirPods,另一块苹果空间计算的拼图


苹果想做什么?在回答这个问题之前,我们首先需要知道爆料中提到的红外摄像头是什么。简单来说,传统摄像头主要是通过传感器接收可见光,然后转换成图像信号,而红外摄像头则不同。除了可以接受红外传感器外,还将配备可以发射红外的发射器,通过主动直射和接收折射光来生成检测范围的图像。


与传统摄像头相比,红外摄像头可以满足弱光和无光环境的图像监控需求,而且更加隐秘。因为红外发射器发射的红外光在大多数动物(包括人类)的视觉上是看不见的,所以常用于户外动物监测。


乍一看,红外摄像头的主要用途似乎与AirPods可能使用图像功能的场景无关。这个东西的定位是什么?实际上,红外线摄像机的另一个用途是普通摄像机所没有的,那就是“测距”。


红外摄像头可以通过红外发射和接收反射信号的时间差来计算发射端和反射物体之间的直线距离,而在短时间内,相机可以通过算法来计算发射端相对于物体表面的移动视角和速度。


看到这里,可能有人已经猜到AirPods搭载摄像头的原因,不是用来拍照或者其他杂七杂八的新功能,只是为了进一步提高空间音频的效果。事实上,如果不考虑照片级图像信息的生成,红外摄像头的功率和体积可以缩小到可以接受的水平。


然而,这意味着网民想象的“你的照片效果不如我的耳机”等梗场景很可能不存在。本质上,这是一个检测和接收红外传感器的传感器。你甚至很难称之为摄像头。最多包含简单的图像信息,帮助芯片判断设备的环境空间状态。


苹果除了对外的红外监测设备外,似乎还为AirPods准备了一个生物监测模块,估计会取代目前的外部红外传感器。原传感器主要用于检测佩戴状态等需求,新的生物监测模块还将提供心率、体温等数据监测服务。


空间定位准确 AirPods显然不仅仅是一副生物数据监控的耳机,还有Vision。 随着Pro的推出,苹果正计划将这种最受欢迎的智能可穿戴设备变成一种全新的空间计算辅助设备,以弥补空间计算生态中的音频环节。


精确的3D空间音频由AirPods提供,加上Vision Pro几乎以虚假的空间显示效果,将使用户的虚拟体验跃升到一个更高的层次。


不得不说,苹果的想法非常大胆。如果你想把这么多传感器塞进一个无线耳机,同时保持耐用性和佩戴舒适性,你对工业设计的能力要求高得可怕。所以,苹果“计划”的想法并不奇怪,即使上述目标最终在2026年难以实现,我也不会感到惊讶。


事实上,目前的无线耳机很难实时计算红外摄像头返回的数据。我能想到的最好的解决办法就是借助手机等无线连接设备的计算率来实现。但这将导致空间音频信号延迟等问题,这显然不符合苹果对新一代“空间音频”的严格要求。


根据之前的一些报道,Apple的计划是利用人工智能技术,通过在耳机上安排NPU来满足空间数据的计算要求,它的确是一个可行的计划。NPU与传统Cpu相比,在空间计算等方面具有明显的优势,通过深入学习构建的AI算法,可以更有效地完成空间数据计算,而且功耗远低于传统Cpu。


从目前的技术进步速度来看,实现这一目标并不遥不可及。其实更多的是看硬件的整合成本,什么时候才能降到大家都能接受的水平。


另外,我还在想一个问题,苹果会不会止步于此?


在AI时代,可穿戴智能产品是未来?


目前,个人智能终端的代表无疑是智能手机,但在AI时代,智能终端的形式显然会更加多样化。借助云计算率和AI模型,未来很多复杂的任务都可以完成,即使只有一副耳机。可穿戴智能产品和智能手机将不再是简单的主从关系。


实际上,苹果现在正在推进这个过程,Vision Pro就是一个很好的例子。为了让用户在户外使用,苹果甚至不遗余力地增加了外部平面显示器和一系列摄像头和传感器,从而实现外部面部再现和内部真实画面投影。



可是,Vision 显然,Pro等类型的空间计算设备不能作为常规的日常可穿戴智能产品来看待。在某种程度上,这种设备更像是笔记本电脑。只有当人们需要互动体验并完成复杂的视觉交互任务时,他们才会戴在头上并使用它。


Vision Pro设计的离电续航也证明了这一点。这不是为长期随身携带而设计的产品。苹果显然需要其他设备来弥补缺失。会是什么?事实上,答案非常明确,Apple Watch AirPods AR眼镜,而且前两者的职责会有一些重叠,使用户能够更加自由地选择设备组合。


事实上,当AirPods被曝将配备红外摄像模块时,还有另外一条消息:苹果在2023年推出了一个名为B798的项目,其目标是在AirPods上配置一个分辨率较低的摄像机,从而实现图像级数据采集。


与仅适用于空间定位的红外摄像模块相比,在AI助手的帮助下,高级版本的摄像模块可以让AirPods中的AI“看到”用户周围的情况,并提供基于图像数据的支持。


比如你来到一家餐厅门口,想知道餐厅的口碑和人均价格,现在的做法就是拿起手机,通过公众评论等app搜索餐厅名称,然后确认评价。未来,你只需要通过语音直接询问Siri,她就会通过AirPods上的摄像头确定餐厅的名称,结合定位等信息搜索餐厅的相关信息,然后通过耳机直接反馈结果。


有趣的是,在苹果的计划中,AirPods并不是唯一添加摄像头模块的可穿戴智能设备。苹果已经在今年3月曝光的一项专利中找到了解决方案。让Apple Watch可以配置屏幕下面的摄像头模块,可以实现拍照、面部跟踪、Face 多种功能,如ID,将使Apple Watch已经成为一个更独立的智能终端。


结合苹果在AI等方面的趋势,猜测这个摄像模块的主要用途并不难。Apple很有可能是 AI视觉辅助模块Watch为Apple Watch可以在一定程度上替代iPhone的用途,提供实时的图像采集能力。


但是Apple 在使用Watch摄像头的过程中,无论是屏幕下面还是侧面,其实都面临着一个问题,那就是不够自然。我想没有人会一直举着手走路,对吧?这就催生了AirPods的拍摄需求,通过两种可穿戴智能设备的补充,在不同场景下实现智能应用。


一般而言,用户只需调用AirPods的图像数据就可以完成导航、数据查询等工作,但是当需要更高性能的图像数据时,Apple Watch可以提供额外的帮助。在苹果的想法中,我甚至怀疑iPhone是否会在未来的某一天成为一个历史名词。想象一下,如果苹果再次使用AR眼镜来处理图像显示需求,iPhone是否还有必要存在?


到时候,或许iPhone会变成另一个东西,比如一个本地算率终端,所有的硬件都服务于内置的高性能AI芯片,这个终端甚至不需要屏幕。Apple Watch、AirPods和Apple AR Galss(组合智能戒指)可以在不同的场景中提供各种实时交互体验,远比用手指在玻璃屏幕上画画方便。


当然,到目前为止,这只是一个疯狂的猜测,基于苹果的相关专利和产品布局。事实上,如果我们想实现如此宏伟的蓝图,我们可能需要在半导体等许多行业取得巨大的进步。


此外,基于空间计算设备的智能生态仍处于起步阶段。至少在短时间内,手持智能终端,如iPhone,仍将是整个移动智能生态的核心。


本文来自微信微信官方账号“雷科技”(ID:leitech),作者:雷科技AI硬件组,36氪经授权发布。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com