Meta 近日宣布,其搭载在 Ray-Ban Meta 眼镜 上的 AI 助手将新增一项重要的无障碍功能 —— “详细响应(Detailed Responses)”模式,旨在为盲人和低视力用户提供更详尽的环境描述。
这项功能允许用户通过语音指令让 AI 描述摄像头视野中的场景细节,例如识别物体、读取文字、解释图像内容等。对于视力受限的人群来说,这意味着他们可以通过听觉“看到”周围世界。
不过,Meta AI 通常被优化为提供简洁明了的回答,以避免长时间音频干扰用户的正常听觉体验。而此次推出的“详细响应”选项,则是专门为希望获得更多信息的用户设计。
该功能现已在 美国和加拿大 推出,并计划在未来扩展至其他支持 Meta AI 的国家。用户可在 Meta AI 应用的设备设置 > 无障碍菜单中 找到并启用该功能。
Meta 表示,这一更新将帮助更多视障人士独立完成日常任务,例如阅读标签、理解图表、识别房间布局等。
需要注意的是,尽管基于大型语言模型(LLM)的 AI 技术正在快速发展,但仍然存在一定的误判风险。Meta 官方也提醒用户,不应依赖 AI 来执行任何涉及安全关键的任务,这一点对盲人用户尤其重要。
与此同时,Meta 还宣布将进一步深化与非营利组织 Be My Eyes 的合作。后者是一个连接视障用户与全球 800 万名志愿者的实时视频协助平台。
此前,这项服务已在 美国、加拿大、英国、爱尔兰和澳大利亚 上线,如今将扩展至所有支持 Meta AI 的 18 个国家。这意味着更多的盲人和低视力用户将能够通过 Ray-Ban Meta 眼镜发起视频通话,获得志愿者在现实生活场景中的即时帮助,比如确认包裹内容、识别颜色、整理衣物等。
值得一提的是,就在 Meta 此次更新前一天,苹果宣布 visionOS 将新增“视觉辅助”功能,包括:
放大透视画面;
使用本地 AI 描述、查找或朗读视野中的内容;
允许第三方无障碍应用(如 Be My Eyes)访问 visionOS 的透视摄像头画面。
此外,据媒体报道,苹果计划在 2027 年推出自家智能眼镜产品,并将重点放在视觉增强 AI 上,预计也将为视障人群提供类似的辅助功能。
随着 AI 和 AR 技术的不断成熟,越来越多的科技公司开始将“无障碍”作为产品设计的核心考量之一。无论是 Meta 的 Ray-Ban Meta 眼镜,还是苹果的 visionOS 设备,它们都在朝着一个共同目标迈进:通过技术手段,让每一个人都能更好地感知和理解这个世界。
我们期待未来有更多厂商加入这一趋势,推动无障碍体验从边缘走向主流。
VR52网成立于2015年,平台提供VR头显、AR眼镜、配件外设、厂商、测评、行业资讯、游戏与应用、展会活动等。