AI眼镜大模型大战:多种大模型协同,交互延迟降至1.3S
电子爱好者网报道(文章 / “百镜对决”开始时,莫婷婷也是如此。 AI 大模型在智能眼镜端加速落地的开始,一场关于智能眼镜的“百模对决”也同步进行。几乎今年刚刚推出。 AI 所有智能眼镜都配备了 AI 大模型。随之而来 AI 智能眼镜与 AI 大型模型的深度融合,一场技术演变和场景革命正在悄然进行。
一款眼镜配有多种大型模型:AI 智能眼镜下的“百模对决”
AI 大型模型是指具有大量参数(通常超过数十亿)的深度学习模型。这类模型具有复杂的计算结构,经过大规模的数据集训练,在自然语言理解、计算机视觉等诸多领域都能表现出色。比如,GPT-4 在文本生成方面有较强的表现; DALL · E 2 可以带来图像生成领域的技术突破。该模型不仅能理解复杂的语义信息,而且能根据前后文生成相应的响应或内容,大大提高了人机交互的质量。
一般来说,AI 大型模型具有泛化、实用、实用三大特点。AI 大型模型包括云侧大模型和端侧大模型,云侧大模型 AI 大型云部署具有参数多、计算能力大、数据存储需求大的特点,如通用大型模型和行业大型模型;侧大型模型主要用于手机、汽车等产品,具有参数小、本地运行等特点。
与传统眼镜相比,AI 智能化眼镜最大的特点是增强。 AI 功能,而且现在看来,智能音频眼镜,AI 智能眼镜、AR 三大类智能眼镜 AI 所有智能眼镜都配备了 AI 大模型。
比如 Ray-Ban Meta 新型号搭载的是 Meta Llama3 大型模型,李未可 Meta Lens Chat AI 眼镜配有自研大模型。 WAKE-AI 大模型等。与此同时,我们还可以看到一款智能眼镜会搭载多个。 AI 大型模型,例如 Rokid Glasses 配备通义千问,DeepSeek、多个大模型,如豆包、智谱清言、纳米搜索等,蜂窝科技界环环 AI 音频眼镜配有通义、百川等内容。 14 个大模型。
图:AI 智能化眼镜功能介绍(电子发烧友网绘图)
多个大型模型将带来许多优点。首先,它们增强了功能的多样性。这些大型模型致力于不同的任务,有些擅长自然语言理解,有些则在图像识别领域表现出色。智能眼镜可以通过整合各种模型提供更丰富、更全面的服务。
第二,提高性能和准确性。每个大型模型都有自己独特的算法和训练数据集,因此在特定任务中可能具有独特的优势。当用户需求不同时,系统会根据实际应用领域选择最合适的模型进行处理。
第三,快速响应,高效处理。Rokid Glasses 将产品搭载的大模型分为基本模型、视觉模型和搜索模型。基本大模型负责整体对话、问答和产品功能调用等。 AI 能力;视觉模型负责识别物体等需要处理视觉信息的任务;信息模型负责整合和总结当前最新信息回答的问题。
所以,这么多大模型,在接到任务的时候会“打架”吗?Rokid 在 Rokid Glasses 端侧集成自研意图分类模型,实现端侧集成 2 在ms中对意图进行分类,然后将请求分发给不同的模型。从而带来快速的 AI 快速响应,更高的处理效率。
Rokid 我觉得“没有能力覆盖全面的大模型,更多的是某个大模型在特定领域表现出色。因此,多模型的协同使用可能是更好的解决方案。”
AI “大脑革命”智能眼镜:侧面推理和交互延迟重塑
智能化眼镜的进化史,本质上是端算率和交互延迟的游戏,随着端算率和交互延迟, Llama、盘古、通义等大模型升级,更强的端侧推理能力和极低的交互延迟,将提供更流畅、更实时的体验。具体来说,主流 AI 智能眼镜的 AI 大型模型的特点。
Ray-Ban Meta 搭载了 Llama 一系列多模态模型,完成即时视觉 - 语言协同(VLM),支持即时同声翻译,支持动态物体跟踪和环境语义分割,能识别超过 1000 类物体,环境感知精度提高到环境感知精度 92%。
华为的智能眼镜产品已搭载盘古多模式大模型。从 2021 盘古大模型每年都会发布 1.0 到目前为止,盘古大模型已经更新升级,盘古大模型已经更新升级。 5.0 能更准确地理解物理世界,融合语言和视觉跨模态信息,支持图像理解等功能。进入华为智能眼镜后,唤醒小艺助手,可进行对话和其他交互功能。据悉,盘古大模型 5.0 推理速度提高了 300%。如果配上华为智能眼镜,会带来更快的互动体验。
李不能科技 Meta Lens Chat AI 基于智能眼镜 WAKE-AI 大型平台,用户在 AI 在智能眼镜上调用大模型可以 500 在ms内快速准确地识别客户指令,一般对话延迟在 1.8 秒上下、2 秒以内。
2025 年 1 月,雷鸟 V3 宣布接入阿里云通义大模型,还定制了全新的意图识别模型,AI 平均响应速度为 1.3s,识别准确率高达 98%。
也是在 2025 年 1 月亮,百度智能云发布 AI 眼镜大模型互动解决方案为智能眼镜场景提供语音交互、视觉理解、复杂任务等端到端解决方案。在互动响应速度方面,多模式实时互动解决方案可以将端到端的音频延迟降低 1.4s,语音中断的延迟低于 0.8s,端到端的视觉延迟低至 2.5s。
通过对比上述产品的技术参数,AI 大型智能眼镜的端侧推理速度,交互延迟将是 AI 两个主要的重点是大模型迭代。
随着技术迭代,端侧推理率不断提高,处理延迟将继续下降。就延迟而言,1.8s 在此之前,大多数智能眼镜的交互延迟都是一个分界点, 5s 从上述最新产品来看,视觉延迟在上下。 2.5s 对语音交互延迟的需求较低,一般要求在上下。 1.3s 上下。
XREAL 创始人兼 CEO 在一次采访中,徐驰曾经说过 AI 眼镜的核心堡垒在于模型,他认为 AI 在智能眼镜中,大模型占比 70% 硬件研发投入占关键作用 三十%,两者需要紧密结合。仅此而已 2025 年 2 月,XREAL 宣布将与海信视频科技合作,合作内容包括光学显示,AI 大型应用等领域。
总结
随着 AI 随着科技的不断发展,智能眼镜面临着前所未有的“脑革命”。从 Ray-Ban Meta 到华为智能眼镜,再到李未可科技。 Meta Lens Chat,这类商品展示各自的舒适性 AI 大型应用的独特优势。通过搭载 Llama、盘古、通义等先进大模型,智能眼镜现在可以实现更快的端侧推理速度和更低的互动延迟,为用户提供更流畅、更实时的感受。另外,越来越多的商品开始采用多少模型来协调工作。所有这些都表明,在不久的将来,智能眼镜将不仅仅是一种简单的穿戴设备,而是一种最先进的整合。 AI 多功能技术平台。
还有一点值得注意的是,“百镜对决”不仅仅是硬件的竞争,更是背后的竞争。 AI 大型技术与应用场景的竞争。各大厂商为了保证设备的轻量化,提供强大的计算能力,都在探索如何更好地应用大型模型。我们将继续关注未来将如何发展。
阅读更多热门文章
加关注 星标我们
把我们设为星标,不要错过每一次更新!
喜欢就奖励一个“在看”!
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




