技术

Meta Connect 2025前瞻:智能眼镜SDK或将亮相,开启AI可穿戴新阶段

  • 2025-09-01
  • 距离Meta Connect 2025大会不到三周,议程已透露关键信号:Meta或将推出智能眼镜相关的SDK,迈出构建AI可穿戴生态的重要一步。

    大会第二天有三场开发者会议明确提到“9月18日将发布Meta全新开发者工具包”,措辞一致,暗示这是一次系统性的开发接口开放。

    三位主讲人的背景也高度聚焦:
    Lansing Lee是Meta产品经理,专注于推动应用向Ray-Ban Meta等AI眼镜迁移;
    Valentina Chacón Buitrago曾参与Meta的Spark AR平台,显示AR技术正被复用于新硬件;
    Conor Griffiths则负责Ray-Ban和Oakley眼镜的外部软件集成,并主导第三方为Meta未来可穿戴设备开发AR与AI内容。

    三人角色的共性,清晰指向Meta正在为智能眼镜构建开发者生态。

    开发者生态的提前布局

    这一发现恰逢CNBC的报道:Meta已开始接触第三方开发者,邀请他们为即将推出的、配备sEMG神经腕带的HUD智能眼镜开发“实验性应用”。报道特别指出,Meta优先选择“专精生成式AI”的开发者,意图明显——这些应用将作为产品发布时的核心卖点,用于展示设备能力。

    然而,一个核心问题依然悬而未决:这个SDK究竟会以何种形式存在?

    目前的Ray-Ban Meta与Oakley Meta HSTN眼镜计算能力极为有限,更接近Fitbit而非智能手机或XR头显。Meta首席技术官Andrew Bosworth曾多次强调,正是这种算力限制,导致无法提供传统的设备端SDK。

    SDK的两种可能路径

    基于现有信息,SDK的发展方向存在两种可能性。

    其一,是服务器端SDK。
    开发者并非为眼镜本身开发应用,而是为Meta AI构建集成能力,类似于亚马逊的Alexa Skills模式。用户通过语音或手势触发,由云端AI处理并返回结果,再通过眼镜呈现。这种模式规避了本地算力瓶颈,但功能深度受限于AI服务本身。

    其二,是面向新一代HUD眼镜的本地化SDK。
    据多方信源(包括The Verge、The Information、Financial Times及Bloomberg的Mark Gurman)报道,Meta正秘密推进代号“Hypernova”的智能眼镜项目。这款设备将在单眼中集成微型抬头显示(HUD),用于显示时间、天气、通知、实时语音字幕与翻译,以及Meta AI的文本回复——尽管并非传统意义上的AR,但已具备基础情境感知能力。

    Hypernova:Meta下一代可穿戴的关键拼图

    Hypernova的重量据报约为70克,显著重于当前Ray-Ban Meta的50克,这一差异很可能源于HUD模组与更强算力芯片的加入。更关键的是,其交互方式将依赖Meta长期研发的sEMG神经腕带,通过手指微动作实现精准控制。Gurman指出,该腕带将随设备附赠。

    今年7月,早期固件中泄露的渲染图不仅证实了设备与腕带的设计,更在一个刻字细节中暗示了产品正式名称——Meta Celeste

    正因Hypernova具备显示能力与来自腕带的丰富输入,其本地算力很可能远超现款眼镜。若其定价在800美元左右,也意味着Meta愿意为更强性能付出成本,这为本地SDK的可行性提供了支撑。

    未来生态的融合可能

    当然,最有可能的路径是两者的结合:SDK既支持云端AI能力扩展,也开放部分本地功能接口,形成“云-端协同”的开发框架。开发者可选择将AI服务作为后端,通过眼镜与腕带实现自然交互,最终在HUD上呈现结果。这种架构既能发挥Meta AI的优势,又能利用新硬件的交互潜力。

    Meta Connect 2025即将拉开帷幕,届时UploadVR将带来全部重磅发布的完整报道。而这场大会,或许正是Meta构建智能眼镜开发者生态的正式起点。

    共 0 条评分
  • 热度
  • 最新
  • 最早
  • 没有更多啦

    VR52

    VR52网成立于2015年,平台提供VR头显、AR眼镜、配件外设、厂商、测评、行业资讯、游戏与应用、展会活动等。

    热门VR眼镜

    热门资讯

    标签

    头显眼镜对比
    清除所有