在今日的MetaConnect2025发布会上,Meta揭示了一项酝酿多年的新功能--ConversationFocus(对话聚焦),旨在通过其智能眼镜增强用户在嘈杂环境中的听觉体验。该功能可实时放大对话对象的声音,抑制背景噪音,被Meta描绘为一种"感知超能力"(perceptualsuperpowers)的现实落地。这一构想最早可追溯至2020年Facebook时期的研究项目"增强听觉"(enhancedhearing),历经多年算法与硬件协同优化,终于迎来实际应用阶段。"听清你面前的人":技术原理与使用场景在发布会演示视频中,一名用户站在喧嚣街头,与朋友交谈时突然停下,对眼镜说出指令:"HeyMeta,startconversationfocus."随即,系统启动音频增强模式,将对话者的声音在耳内显著放大。扎克伯格现场承诺:"如果你在一家嘈杂的餐厅,你基本上可以'调高'朋友的音量。"这一功能依赖于眼镜上的多麦克风阵列与AI音频分离技术,通过空间定位识别正前方说话者的声音,并动态抑制周围环境噪声,实现类似"听觉变焦"的效果。Meta表示,该功能将支持其全线智能眼镜产品,包括:Ray-BanMetaRay-BanMetaGen2OakleyMetaHSTNOakleyMetaVanguardMetaRay-BanDisplayGlasses演示中的争议:实用vs.打断尽管概念极具吸引力,但演示视频也引发了一些质疑。在播放片段中,被放大的语音呈现出明显的电子化失真,听起来略显机械与不自然。更关键的是,用户需要在对话中主动喊出语音指令来启动功能,这一行为在真实社交场景中可能显得突兀甚至失礼。试想:你正与朋友在酒吧聊天,突然说一句"HeyMeta,开启对话聚焦",随即对方的声音在你耳中被"放大",这种中断式交互是否真的无缝?还是反而破坏了交流的自然流动?真正的价值或在无障碍领域尽管在普通用户中可能存在使用习惯门槛,但ConversationFocus的最大潜力,或许在于辅助听障人群。对于轻度听力受损或在特定环境(如老年聚会、机场候机厅)中沟通困难的用户而言,这种"可调节的听觉增强"功能可能带来实质性帮助。它让智能眼镜不再只是信息输出设备,而是成为感官补偿工具,真正体现科技的包容性价值。