Meta在全球无障碍意识日宣布多项新功能:AI眼镜增强描述能力、志愿者呼叫服务全面上线、sEMG腕带助力残障用户交互在2025年全球无障碍意识日(GlobalAccessibilityAwarenessDay)之际,Meta正式公布了一系列面向无障碍体验的新技术进展和产品更新,涵盖AI眼镜、语音交互、肌肉信号控制等多个领域,进一步推动其"连接每一个人"的愿景。这些更新不仅体现了Meta对无障碍设计的持续投入,也为视障、手部运动障碍及听障人群带来了更加实用、高效的数字交互方式。Ray-BanMeta眼镜新增AI详细描述功能,帮助视障用户感知环境Ray-BanMeta智能眼镜自推出以来,凭借其无手操作和便捷的AI集成,受到了广泛欢迎。它支持拍照、语音通话、实时翻译、音乐播放等功能,尤其为视障群体提供了前所未有的独立生活辅助。今日起,Meta宣布将向所有用户开放一项全新功能--定制MetaAI的详细响应模式(DetailedResponses)。该功能基于眼镜摄像头捕捉的环境信息,由MetaAI提供更详尽的场景描述,例如识别物品、读取文字、解释图像等。这项功能将首先在美国和加拿大逐步上线,并在未来扩展至更多市场。用户可在MetaAI应用的设备设置中开启"无障碍"选项中的"详细响应"功能。Meta表示,这一功能不仅能帮助视障用户更好地理解周围环境,也适用于需要快速获取视觉信息的其他用户群体。"CallaVolunteer"功能本月将在18国上线,视障人士可实时连线志愿者协助Meta还宣布,与非营利组织BeMyEyes合作开发的"CallaVolunteer"(呼叫志愿者)功能,将于本月晚些时候在全球18个支持MetaAI的国家正式上线。该功能允许盲人或低视力用户通过智能眼镜或手机应用,实时连线到有视力的志愿者网络,获得关于日常任务的帮助,如阅读标签、整理衣物、识别颜色、确认物品状态等。此前,该功能已在部分地区试点运行,获得了积极反馈。此次扩展标志着Meta在无障碍社交连接领域的又一次重要推进。sEMG腕带技术探索人体计算机交互新边界Meta正在研发基于表面肌电图(sEMG)技术的腕带设备,旨在为身体活动受限的用户开辟全新的交互方式。这种腕带可以通过检测手腕处的肌肉电信号,实现对AR/VR设备的精准控制。尤其对于手部瘫痪、震颤或手指数量不完整的用户而言,sEMG技术提供了一种无需依赖传统手势或触控的替代方案。目前,Meta已完成多个临床研究项目,包括:与某临床研究机构合作测试帕金森病和原发性震颤患者使用sEMG控制设备的能力;与卡内基梅隆大学合作,探索脊髓损伤导致手部瘫痪的用户如何通过微弱肌肉信号操控系统。令人振奋的是,这些用户在接受训练后,在首次使用系统时即可实现基本交互操作,显示出sEMG技术在无障碍人机接口领域的巨大潜力。此外,Meta也在为其AR眼镜原型Orion开发新一代sEMG腕带,未来或将作为消费级输入设备推向市场。打破沟通障碍:实时字幕与语音合成功能覆盖全平台为了提升元宇宙的包容性,Meta在旗下VR/AR平台中全面引入了实时字幕(LiveCaptions)和语音合成(LiveSpeech)功能。实时字幕可将语音内容即时转换为屏幕文本,适用于Quest系统、HorizonCall以及HorizonWorlds等多人互动场景;语音合成则将用户输入的文字转化为语音输出,为语言表达困难或不愿使用声音的用户提供替代交流方式。Meta表示,自该功能上线以来,用户留存率极高。近期还推出了个性化语音设置和常用语保存功能,进一步优化用户体验。Llama大模型赋能手语翻译:SignSpeak推出ASLWhatsApp聊天机器人Meta的开源AI模型系列Llama也在无障碍领域展现出强大潜力。例如,开发者团队Sign-Speak就利用Llama模型与自身API结合,打造了一个WhatsApp手语翻译聊天机器人,可将美国手语(ASL)实时翻译为英文文本,再通过虚拟形象将文本"打回"手语动作给听障者查看。这一工具实现了听障人士与健听人士之间的双向无障碍沟通,具有极高的社会价值和应用前景。Meta的无障碍承诺:让连接更平等、更包容Meta在公告中强调,公司将继续投资于无障碍技术和产品的研发,致力于为全球数十亿用户创造更加包容的数字生态。无论是硬件创新、软件适配,还是与社区组织的合作,Meta正在从多个维度推动无障碍体验的普及与深化。正如其在声明中所言:"我们相信,技术的力量在于连接每一个人。无障碍不是附加功能,而是我们设计每一项产品时必须考虑的核心。"