
Meta近日宣布,其 Wearables Device Access Toolkit(可穿戴设备访问工具包)现已进入公开预览阶段。该工具包允许智能手机应用调用Meta智能眼镜的摄像头,实现照片拍摄或视频流传输功能,为开发者在iOS和Android平台上构建创新体验打开新窗口。
目前,开发者可下载该工具包并集成至自有App中,在个人设备上进行测试,但尚不能用于面向公众的正式发布版本。
在2025年Connect大会上首次公布的这一工具包,使手机App能够从Ray-Ban Meta或Oakley Meta HSTN等支持型号的眼镜中触发拍照或启动720p/30fps的视频流。所获取的画面可由App本地存储或实时处理。由于Meta智能眼镜本身作为蓝牙音频设备运行,开发者还能将视觉输入与双向音频能力结合,构建更完整的多模态交互场景。
典型应用场景包括:
在社交或直播平台中加入第一人称视角直播功能;
将摄像头画面输入第三方多模态AI模型,实现“所见即所问”的实时问答——例如识别商品、翻译路牌或解释周围环境。
受限于蓝牙带宽,视频流最高仅支持720p@30fps;当连接环境拥挤时,系统会自动降低分辨率与帧率以保障稳定性。
当前支持的设备包括 Ray-Ban Meta 和 Oakley Meta HSTN。Meta还计划在近期加入对 Oakley Meta Vanguard 与 Meta Ray-Ban Display 的支持,但需注意:后两款设备仅支持摄像头画面回传,无法通过其HUD显示内容。
开发者工具包文档与SDK:https://wearables.developer.meta.com
数月前,Meta已向Twitch、微软、Logitech Streamlabs和迪士尼等少数合作伙伴提供了该工具包的早期版本:
Twitch 与 Logitech Streamlabs 正利用其能力,让用户在平台上直播第一人称视角,功能类似Instagram已有的“Go Live”;
微软 则将其集成至 Seeing AI 应用中,帮助视障用户通过AI理解周遭环境,提升独立出行与交互能力。
随着工具包走向开放,更多结合AI、社交、辅助技术的创新用例有望加速涌现,推动智能眼镜从“音频配件”向“感知终端”演进。

VR52网成立于2015年,平台提供VR头显、AR眼镜、配件外设、厂商、测评、行业资讯、游戏与应用、展会活动等。