Meta近日宣布,其搭载在Ray-BanMeta眼镜上的AI助手将新增一项重要的无障碍功能--"详细响应(DetailedResponses)"模式,旨在为盲人和低视力用户提供更详尽的环境描述。这项功能允许用户通过语音指令让AI描述摄像头视野中的场景细节,例如识别物体、读取文字、解释图像内容等。对于视力受限的人群来说,这意味着他们可以通过听觉"看到"周围世界。不过,MetaAI通常被优化为提供简洁明了的回答,以避免长时间音频干扰用户的正常听觉体验。而此次推出的"详细响应"选项,则是专门为希望获得更多信息的用户设计。新增无障碍设置:可手动开启"详细描述"模式该功能现已在美国和加拿大推出,并计划在未来扩展至其他支持MetaAI的国家。用户可在MetaAI应用的设备设置>无障碍菜单中找到并启用该功能。Meta表示,这一更新将帮助更多视障人士独立完成日常任务,例如阅读标签、理解图表、识别房间布局等。需要注意的是,尽管基于大型语言模型(LLM)的AI技术正在快速发展,但仍然存在一定的误判风险。Meta官方也提醒用户,不应依赖AI来执行任何涉及安全关键的任务,这一点对盲人用户尤其重要。与BeMyEyes深化合作:志愿者实时协助服务即将覆盖全球18国与此同时,Meta还宣布将进一步深化与非营利组织BeMyEyes的合作。后者是一个连接视障用户与全球800万名志愿者的实时视频协助平台。此前,这项服务已在美国、加拿大、英国、爱尔兰和澳大利亚上线,如今将扩展至所有支持MetaAI的18个国家。这意味着更多的盲人和低视力用户将能够通过Ray-BanMeta眼镜发起视频通话,获得志愿者在现实生活场景中的即时帮助,比如确认包裹内容、识别颜色、整理衣物等。苹果也在推进类似功能,智能眼镜竞争加剧值得一提的是,就在Meta此次更新前一天,苹果宣布visionOS将新增"视觉辅助"功能,包括:放大透视画面;使用本地AI描述、查找或朗读视野中的内容;允许第三方无障碍应用(如BeMyEyes)访问visionOS的透视摄像头画面。此外,据媒体报道,苹果计划在2027年推出自家智能眼镜产品,并将重点放在视觉增强AI上,预计也将为视障人群提供类似的辅助功能。科技助力无障碍:Meta和苹果齐头并进随着AI和AR技术的不断成熟,越来越多的科技公司开始将"无障碍"作为产品设计的核心考量之一。无论是Meta的Ray-BanMeta眼镜,还是苹果的visionOS设备,它们都在朝着一个共同目标迈进:通过技术手段,让每一个人都能更好地感知和理解这个世界。我们期待未来有更多厂商加入这一趋势,推动无障碍体验从边缘走向主流。