在 Meta Connect 2025 大会后续更新中,Meta 宣布将于今年晚些时候推出 Wearable Device Access Toolkit(可穿戴设备访问工具包),这是一套面向开发者的 SDK,旨在让第三方智能手机应用首次直接与 Meta VR52.com/vr-news/smart-glass' target='_self'>智能眼镜(如 Ray-Ban Meta、Oakley Meta 系列等)的硬件功能进行交互。
在初始版本中,该工具包将允许开发者通过用户的智能手机应用,安全地访问智能眼镜的以下核心组件:
摄像头(用于拍照、录像或实时图像流)
扬声器(用于音频播放或语音反馈)
麦克风阵列(支持空间音频采集与语音识别)
所有权限均需用户明确授权,每款应用必须在使用前获得用户许可,确保隐私可控。
Meta 表示,这一 SDK 将为开发者打开全新的交互可能性。例如:
在健身类 App 中集成 第一人称视角直播或录制 功能;
将眼镜拍摄的实时画面传输至第三方多模态 AI 模型,实现“你看到什么,AI 就分析什么”——比如识别物体、翻译文字、获取商品信息等。
值得注意的是,首发版本暂不支持调用 Meta 自家的 Meta AI。这意味着开发者若想构建 AI 驱动体验,必须:
建立持续的音视频数据流;
将图像发送至自有的或第三方 AI 模型;
承担相应的计算成本与带宽开销;
面对由此带来的额外电池消耗问题。
Meta 明确表示,集成 Meta AI 支持是该工具包未来更新的“关键方向”。
目前,该 SDK 不支持以下高级功能:
向 Meta Ray-Ban Display 的 HUD(抬头显示器)发送图像内容;
访问 Meta Neural Band 的手势识别数据。
不过,Meta 已确认正在探索这些能力的未来可行性,为更深层次的 AR 交互预留了技术路径。
早在数月前,Meta 已向部分合作伙伴提供了早期版本的工具包,包括:
Twitch 与 Logitech Streamlabs:用于在直播平台中实现第一人称视角直播,功能类似当前 Instagram 上的支持;
Microsoft Seeing AI:帮助视障人士通过眼镜摄像头实时感知环境,如识别文本、人物、物体和货币,提升独立生活能力;
18Birdies(高尔夫应用):正在测试利用眼镜摄像头进行实时距离测算与球杆推荐,让球员无需掏出手机即可获得战术建议,极大提升球场体验。
有兴趣的开发者现已可通过 Meta 官方表单申请加入 Wearable Device Access Toolkit 预览计划,提前探索其潜力。
此前,Meta 智能眼镜的功能主要局限于自有生态系统(如 Meta AI、WhatsApp、Instagram)。此次推出 SDK,标志着 Meta 正式向第三方开发者敞开大门,推动眼镜从“Meta 生态配件”向“可编程可扩展的通用可穿戴平台”演进。
虽然初期功能有限且缺乏 Meta AI 深度集成,但这一工具包为未来的创新奠定了基础:想象一下导航 App 主动提醒你转弯、购物 App 自动比价、学习 App 即时翻译课本——智能眼镜,正逐步成为真正的“全天候个人助理”。
VR52网成立于2015年,平台提供VR头显、AR眼镜、配件外设、厂商、测评、行业资讯、游戏与应用、展会活动等。