距离Meta Connect 2025大会不到三周,议程已透露关键信号:Meta或将推出智能眼镜相关的SDK,迈出构建AI可穿戴生态的重要一步。
大会第二天有三场开发者会议明确提到“9月18日将发布Meta全新开发者工具包”,措辞一致,暗示这是一次系统性的开发接口开放。
三位主讲人的背景也高度聚焦:
Lansing Lee是Meta产品经理,专注于推动应用向Ray-Ban Meta等AI眼镜迁移;
Valentina Chacón Buitrago曾参与Meta的Spark AR平台,显示AR技术正被复用于新硬件;
Conor Griffiths则负责Ray-Ban和Oakley眼镜的外部软件集成,并主导第三方为Meta未来可穿戴设备开发AR与AI内容。
三人角色的共性,清晰指向Meta正在为智能眼镜构建开发者生态。
这一发现恰逢CNBC的报道:Meta已开始接触第三方开发者,邀请他们为即将推出的、配备sEMG神经腕带的HUD智能眼镜开发“实验性应用”。报道特别指出,Meta优先选择“专精生成式AI”的开发者,意图明显——这些应用将作为产品发布时的核心卖点,用于展示设备能力。
然而,一个核心问题依然悬而未决:这个SDK究竟会以何种形式存在?
目前的Ray-Ban Meta与Oakley Meta HSTN眼镜计算能力极为有限,更接近Fitbit而非智能手机或XR头显。Meta首席技术官Andrew Bosworth曾多次强调,正是这种算力限制,导致无法提供传统的设备端SDK。
基于现有信息,SDK的发展方向存在两种可能性。
其一,是服务器端SDK。
开发者并非为眼镜本身开发应用,而是为Meta AI构建集成能力,类似于亚马逊的Alexa Skills模式。用户通过语音或手势触发,由云端AI处理并返回结果,再通过眼镜呈现。这种模式规避了本地算力瓶颈,但功能深度受限于AI服务本身。
其二,是面向新一代HUD眼镜的本地化SDK。
据多方信源(包括The Verge、The Information、Financial Times及Bloomberg的Mark Gurman)报道,Meta正秘密推进代号“Hypernova”的智能眼镜项目。这款设备将在单眼中集成微型抬头显示(HUD),用于显示时间、天气、通知、实时语音字幕与翻译,以及Meta AI的文本回复——尽管并非传统意义上的AR,但已具备基础情境感知能力。
Hypernova的重量据报约为70克,显著重于当前Ray-Ban Meta的50克,这一差异很可能源于HUD模组与更强算力芯片的加入。更关键的是,其交互方式将依赖Meta长期研发的sEMG神经腕带,通过手指微动作实现精准控制。Gurman指出,该腕带将随设备附赠。
今年7月,早期固件中泄露的渲染图不仅证实了设备与腕带的设计,更在一个刻字细节中暗示了产品正式名称——Meta Celeste。
正因Hypernova具备显示能力与来自腕带的丰富输入,其本地算力很可能远超现款眼镜。若其定价在800美元左右,也意味着Meta愿意为更强性能付出成本,这为本地SDK的可行性提供了支撑。
当然,最有可能的路径是两者的结合:SDK既支持云端AI能力扩展,也开放部分本地功能接口,形成“云-端协同”的开发框架。开发者可选择将AI服务作为后端,通过眼镜与腕带实现自然交互,最终在HUD上呈现结果。这种架构既能发挥Meta AI的优势,又能利用新硬件的交互潜力。
Meta Connect 2025即将拉开帷幕,届时UploadVR将带来全部重磅发布的完整报道。而这场大会,或许正是Meta构建智能眼镜开发者生态的正式起点。
VR52网成立于2015年,平台提供VR头显、AR眼镜、配件外设、厂商、测评、行业资讯、游戏与应用、展会活动等。