在Connect2025大会上,Meta正式推出首款带显示屏的
翻车之后,CTO亲自拆解故障根源在2025年MetaConnect大会的主舞台上,两场关键智能眼镜功能的现场演示接连失败,让马克·扎克伯格罕见地陷入尴尬。当时他将问题归因于"会场Wi-Fi太差",但事后,Meta首席技术官安德鲁·博斯沃思(AndrewBosworth)在Instagram的AMA问答中,给出了更真实、也更技术性的解释。这不是简单的网络问题,而是两个独立系统缺陷,在高压环境下被意外触发的结果。LiveAI为何陷入"已混合原料"死循环?第一场故障出现在"LiveAI"功能的演示中。该功能允许用户与MetaAI进行持续对话,无需反复唤醒"HeyMeta",AI还能实时感知视野内容。现场,厨师JackMancuso在Meta园区厨房启动功能后,AI准确识别了酱油等食材。但当他询问如何制作韩式牛排酱时,AI却不断重复:"你已经混合了基础原料。"博斯沃思解释,真正原因是:声音广播引发全楼设备误触发。Mancuso说"HeyMeta,startLiveAI"时,声音通过会场扬声器播放;导致建筑内所有Ray-BanMeta眼镜同时启动LiveAI;为保障演示稳定,Meta将园区LiveAI流量集中导流至一台开发服务器;成百上千并发请求瞬间压垮服务器,导致响应异常。至于为何AI反复声称"已混合原料",博斯沃思未作说明。合理推测是:服务器崩溃后返回了缓存中的排练数据;另一种可能是,Meta在演示中预设了部分流程,系统故障后暴露了"半真半假"的底层逻辑。更值得警惕的是:MetaAI至今不支持声纹识别。而Siri、Alexa、GoogleAssistant早已实现语音身份认证,防止误操作或隐私泄露。视频通话失败:一个"休眠"引发的系统死锁第二场故障发生在扎克伯格亲自演示MetaRay-BanDisplay眼镜接听WhatsApp视频来电时。理论上,他应能语音或手势接通,画面直接显示在镜片上。多家媒体(如TheVerge)实测确认功能可用,但现场却连续四次失败。博斯沃思透露,根本原因是一个极小概率的"竞态条件"(racecondition):来电通知到达的瞬间,眼镜显示屏恰好进入休眠状态;系统未能正确处理通知与唤醒的时序冲突,导致来电被阻塞;更严重的是,该错误使系统进入异常状态,后续所有呼叫均无法接入。他坦言:"这种bug出现在这种场合,真是糟糕透顶。"尽管团队已测试上百次,此前从未复现。如今漏洞已被修复。正常视频通话时为什么坚持高风险的"真演示"?尽管翻车,博斯沃思仍为"真实演示"辩护。他在AMA中表示:"我不明白人们觉得风险在哪……去看看媒体评测吧,如果产品不好用,他们根本不会写好评。他们试了,也说了:这东西是真的,能用。观众都懂--没人日常处在2500个无线设备同时干扰的环境里。"这代表了一种与苹果"精心编排式发布"截然不同的产品哲学:宁可暴露瑕疵,也要展示真实能力。业内反应两极:有人嘲讽,也有人认为这种"不完美"反而增强了可信度--毕竟,预发布阶段的演示本就充满不确定性。用户可亲自验证,产品才是最终裁判从9月30日起,MetaRay-BanDisplay眼镜已在BestBuy、LensCrafters和Ray-Ban门店开放体验。这意味着,消费者不再需要依赖发布会表现,而是可以亲自验证功能是否流畅。演示可以翻车,但产品必须经得起真实世界的考验。对Meta而言,真正的挑战,才刚刚开始。
国产AR品牌RayNeo宣布,其最新智能眼镜RayNeoX3Pro将于2025年内正式登陆全球市场。这款产品目前已在中国市场发售,接下来将启动国际扩张计划,标志着中国消费级AR硬件迈出关键一步。作为RayNeo的旗舰型号,X3Pro不仅在光学显示上追求极致,更在AI交互与空间感知能力上全面升级,试图在Meta、Apple、XReal等巨头夹击下,开辟一条差异化路线。双目全彩MicroLED,亮度高达6000尼特RayNeoX3Pro搭载双目全彩显示系统,实现双眼独立的AR画面呈现,显著提升沉浸感与视觉平衡性。其核心采用MicroLED导波光路技术,峰值亮度可达6000尼特--这一数值远超当前主流AR设备,意味着在户外强光环境下依然能清晰显示虚拟内容。高亮度+轻量化设计的结合,使X3Pro在通勤、旅行、户外办公等真实场景中具备更强实用性,直指"全天候可用"的消费级AR目标。搭载GoogleGemini,AI能力成核心卖点真正让X3Pro脱颖而出的,是其深度集成的AI能力。该设备搭载GoogleGeminiAI模型,支持多项智能功能:实时语音翻译:面对面交流时可实现跨语言字幕叠加;文本摘要:快速提取网页、文档关键信息;空间导航:结合AR叠加层,提供室内外步行指引。这标志着AR眼镜正从"显示终端"向"AI代理入口"演进。借助Gemini的多模态理解能力,X3Pro能更自然地理解用户所见所言,实现"所见即所得"的交互体验。6DoF加持,支持手势识别与AR捕捉硬件层面,X3Pro还配备了6DoF(六自由度)空间追踪系统,可精确捕捉设备在三维空间中的位置与姿态变化。这一能力为以下功能提供支撑:场景识别:自动识别环境类型(如街道、室内、商店);手势操控:无需手柄,通过手势完成选择、拖拽等操作;AR内容捕捉:将现实场景与虚拟标注结合,一键保存或分享。6DoF的加入,意味着X3Pro已超越"信息提示眼镜"的范畴,具备了构建空间计算平台的基础能力。随着2025年全球发售临近,RayNeoX3Pro或将面临本地化适配、生态建设与品牌认知等多重挑战。但其在显示、AI与交互上的综合表现,无疑为全球消费者提供了一个值得关注的中国AR选项。
在今日的MetaConnect2025大会上,Meta正式推出Ray-BanMetaGen2智能眼镜,并已开放预购。作为初代无屏智能眼镜的迭代产品,Gen2在关键性能上全面对标今年早些时候发布的OakleyMetaHSTN,实现了视频录制与续航能力的重大飞跃。核心升级:3K视频+8小时续航初代Ray-BanMeta于2023年底发布,受限于1080p分辨率和仅4小时的典型使用续航,在实用性上存在短板。而新发布的Gen2彻底弥补了这些差距:视频录制:支持最高3K分辨率(约2880×1620),远超初代的1080p。电池续航:典型使用下可达8小时,较前代翻倍。此外,用户可在三种录制模式中自由选择:1200p@60FPS(流畅动作捕捉)1440p@30FPS(平衡画质与文件大小)3K@30FPS(最高画质)所有模式下,单次录制最长可达3分钟,满足日常瞬间记录需求。功能延续:仍是那副"听得见、拍得到"的智能眼镜除了硬件升级,Ray-BanMetaGen2的核心功能体验与初代保持一致:无屏幕设计,依赖语音交互内置12MP摄像头,支持拍照与视频五麦克风阵列+双耳外放扬声器支持音乐、播客、有声书播放接打电话、语音助手(HeyMeta)实时语音翻译、二维码扫描通过MetaAI(基于大语言模型的视觉助手)识别眼前物体并提供信息第一人称视角直播至WhatsApp和Messenger视频通话可设置播报手机通知简而言之,它依然是一副专注于听觉交互与第一视角记录的时尚智能眼镜,而非AR显示设备。价格策略:双线并行,覆盖不同预算Ray-BanMetaGen2:起售价$380,即日起发售。初代Ray-BanMeta:将继续销售,作为更实惠的选择,起售价$300。这一策略让Meta能够同时满足追求最新性能的用户和预算敏感型消费者,巩固其在消费级智能眼镜市场的主流地位。同场发布:Meta首款带屏眼镜Ray-BanDisplay正式亮相值得一提的是,本次发布会还正式推出了MetaRay-BanDisplay--Meta首款搭载单目AR显示屏的智能眼镜,售价$800,包含MetaNeuralBand(sEMG神经腕带),初期仅在美国部分实体零售商(如BestBuy、SunglassHut等)发售。相比之下,Ray-BanMetaGen2定位更偏向大众市场,是Meta在"无屏智能音频眼镜"赛道上的又一次精准升级,确保其在OakleyHSTN发售后仍能保持产品线竞争力。
在今日的MetaConnect2025发布会上,Meta揭示了一项酝酿多年的新功能--ConversationFocus(对话聚焦),旨在通过其智能眼镜增强用户在嘈杂环境中的听觉体验。该功能可实时放大对话对象的声音,抑制背景噪音,被Meta描绘为一种"感知超能力"(perceptualsuperpowers)的现实落地。这一构想最早可追溯至2020年Facebook时期的研究项目"增强听觉"(enhancedhearing),历经多年算法与硬件协同优化,终于迎来实际应用阶段。"听清你面前的人":技术原理与使用场景在发布会演示视频中,一名用户站在喧嚣街头,与朋友交谈时突然停下,对眼镜说出指令:"HeyMeta,startconversationfocus."随即,系统启动音频增强模式,将对话者的声音在耳内显著放大。扎克伯格现场承诺:"如果你在一家嘈杂的餐厅,你基本上可以'调高'朋友的音量。"这一功能依赖于眼镜上的多麦克风阵列与AI音频分离技术,通过空间定位识别正前方说话者的声音,并动态抑制周围环境噪声,实现类似"听觉变焦"的效果。Meta表示,该功能将支持其全线智能眼镜产品,包括:Ray-BanMetaRay-BanMetaGen2OakleyMetaHSTNOakleyMetaVanguardMetaRay-BanDisplayGlasses演示中的争议:实用vs.打断尽管概念极具吸引力,但演示视频也引发了一些质疑。在播放片段中,被放大的语音呈现出明显的电子化失真,听起来略显机械与不自然。更关键的是,用户需要在对话中主动喊出语音指令来启动功能,这一行为在真实社交场景中可能显得突兀甚至失礼。试想:你正与朋友在酒吧聊天,突然说一句"HeyMeta,开启对话聚焦",随即对方的声音在你耳中被"放大",这种中断式交互是否真的无缝?还是反而破坏了交流的自然流动?真正的价值或在无障碍领域尽管在普通用户中可能存在使用习惯门槛,但ConversationFocus的最大潜力,或许在于辅助听障人群。对于轻度听力受损或在特定环境(如老年聚会、机场候机厅)中沟通困难的用户而言,这种"可调节的听觉增强"功能可能带来实质性帮助。它让智能眼镜不再只是信息输出设备,而是成为感官补偿工具,真正体现科技的包容性价值。
在MetaConnect2025的密集发布之外,Meta宣布了一项针对运动用户的实用升级:其智能眼镜产品线(包括Ray-BanMeta、OakleyMeta系列及新款MetaRay-BanDisplayGlasses)将正式支持Garmin手表集成,并新增对Strava的深度兼容。这一更新让智能眼镜从"时尚+社交"设备,进一步延伸为全天候运动伴侣。实时语音查询:用"HeyMeta"掌握运动状态通过将Garmin设备与MetaAI账户绑定,用户现在可以在锻炼过程中直接向眼镜发问,获取实时健康与运动数据。例如:"HeyMeta,what'smyheartrate?""HeyMeta,howamIdoing?"系统会即时播报当前心率、配速、距离、海拔等关键指标,无需停下查看手表或手机。这种"语音优先"的交互方式,在跑步、骑行等双手不便操作的场景下尤为实用,真正实现信息的"无感获取"。Autocapture自动捕捉:关键时刻,一个不错过此次更新还带来一项名为Autocapture(自动捕获)的新功能。只需语音指令"HeyMeta,enableAutocapture",眼镜便会进入智能录制模式--当系统检测到你达到关键里程节点,或心率、速度、海拔显著提升时,将自动录制一段视频片段。这意味着,无论是冲刺五公里终点、爬升最后一段陡坡,还是突破个人最快配速,你的智能眼镜都能自动记录下这些高光时刻,并生成带有时间戳的精彩集锦,便于后续回顾或分享。Strava数据叠加:打造专业级运动Vlog对于希望制作高质量运动视频的用户,Meta还推出了Strava数据叠加功能。你可以选择将来自Garmin和Strava的运动数据--如心率曲线、实时速度、累计爬升、配速区间等--直接叠加在眼镜拍摄的视频画面上。用户可自定义显示哪些指标、字体大小与位置,甚至可以选择完全隐藏数据层。这一功能让普通的第一视角录像,瞬间升级为具备专业分析价值的训练日志或社交媒体内容,尤其适合健身博主、跑步爱好者和户外探险者。
在今日举行的MetaConnect开发者大会上,Meta正式发布了与依视路·陆逊梯卡(EssilorLuxottica)联合打造的下一代智能眼镜产品线,几乎完全印证了昨日的"意外泄露"。其中最受瞩目的,正是传闻已久的搭载单目光学显示屏的MetaRay-BanDisplayGlasses--这标志着Meta在消费级增强现实(AR)眼镜上的首次实质性突破。扎克伯格在主题演讲中展示了三款新基础型号,命名策略也迎来一次微妙调整:原本预期的"Ray-BanMetaGen3"并未出现,取而代之的是定位最高端的MetaRay-BanDisplayGlasses。这一命名变化突显了"显示功能"作为核心卖点的战略意图。其余两款则延续品牌合作路线:主打运动风格的OakleyMetaVanguard,以及迭代款Ray-BanMetaGen2。后者与今年7月发布的OakleyMetaHSTN共同构成更完整的产品矩阵,覆盖不同用户场景与审美偏好。799美元的AR尝试:一块单目屏,如何改变交互?新发布的MetaRay-BanDisplayGlasses定价799美元,硬件配置延续了前代优势:1200万像素摄像头、五麦克风阵列、双耳外放扬声器、语音控制、拍摄LED提示灯等一应俱全,并统一采用高通SnapdragonAR1Gen1芯片平台。真正划时代的升级,在于右眼集成的全彩单目微显示器。这块600×600像素、视场角达20°的屏幕,像素密度为42PPD,刷新率90Hz(内容更新30Hz),亮度范围30–5000尼特,支持UV感应自动调节显示强度。Meta强调其光学设计具备极低光泄漏(<2%),确保他人难以窥视你正在查看的内容,兼顾隐私与实用性。这意味着,用户终于可以在不掏出手机的情况下,私密地浏览信息、接收通知、甚至进行视频通话。你可以一边走路,一边通过镜片看到WhatsApp、Messenger或Instagram的消息,并直接语音或手势回复。更进一步,它还能实现第一人称视角的实时直播通话--对方能看到你眼中所见的世界。手势之外:sEMG神经腕带开启"无感交互"新维度如果说显示屏是"输出端"的进化,那么随眼镜一同亮相的MetaNeuralBand(神经腕带)则是输入方式的革命。这款基于表面肌电图(sEMG)技术的可穿戴设备,能捕捉前臂肌肉在手指和手部动作时产生的微弱电信号,实现无需视觉识别的精准手势控制。它支持全天佩戴,续航长达18小时,具备IPX7防水等级,并内置触觉反馈功能。具体交互方式包括:拇指轻扫:左右切换音乐捏合手指+手腕旋转:调节音量Meta正在开发的EMG手写识别功能,未来或可直接"空中写字"输入文本当视觉显示与sEMG手势结合,一系列新场景被解锁:导航时,镜片上可叠加步行路线与区域地图(目前为有限城市Beta测试);对话中,系统可提供实时字幕与外语翻译,近乎实现"无障碍沟通";拍照时,显示屏可作为取景器,支持3倍数码变焦,并允许直接预览、保存和分享照片与1080p视频。从处方支持到全球扩张:Meta的谨慎野心MetaRay-BanDisplayGlasses默认配备变色镜片,支持-4.00至+4.00的处方镜片适配(具体方案尚未详述),电池续航约为6小时混合使用,配合可折叠便携充电盒可延长至30小时,并支持20分钟快充50%。产品首发提供ShinyBlack与ShinySand两种配色,镜框有标准与大号可选,NeuralBand提供三种腕围尺寸。由于需要专业验配,Meta将采取线下优先策略,9月30日起仅在美国部分实体零售商发售,包括BestBuy、Lenscrafters、SunglassHut和Ray-Ban门店,Verizon门店也将陆续上架。国际市场的扩展计划已明确:加拿大、法国、意大利和英国将于2026年初推出,后续将逐步开放更多购买渠道。
距离MetaConnect2025正式开幕仅剩数小时,扎克伯格即将登台,揭晓这家全球XR领域最具影响力公司下一阶段的战略蓝图。作为年度科技盛会,这场发布会不仅关乎虚拟现实的演进,更可能重新定义人机交互的边界。今年的keynote时间安排略显特殊--将于太平洋时间下午5点(美东时间晚上8点)举行。届时,扎克伯格将亲自介绍Meta在混合现实(MR)、人工智能(AI)、元宇宙生态以及可穿戴设备领域的最新进展。这些关键词早已不再是概念堆砌,而是逐步走向产品化与用户落地的关键节点。智能眼镜矩阵或将亮相?来自合作方的"意外泄露"值得注意的是,本次发布会的一大潜在焦点或许是智能眼镜产品线的全面升级。就在昨日,Meta与光学巨头依视路·陆逊梯卡(EssilorLuxottica)的合作项目疑似提前曝光,一款搭载单目光学显示模组的新一代智能眼镜浮出水面。这一细节暗示,Meta或正试图在轻量化、日常佩戴场景中实现"视觉增强"的突破。若消息属实,这将是继Ray-BanMeta智能眼镜之后,双方合作的又一次深化。不同于主打音频与拍摄功能的初代产品,配备单目显示屏的型号意味着真正的"信息叠加"体验正在逼近消费级市场--尽管可能仍处于早期探索阶段。HorizonOS开放生态的后续回响回顾上一届Connect大会,Meta抛出了一个极具战略意义的决定:首次向第三方厂商开放HorizonOS操作系统,并推动联想、华硕等品牌推出基于该系统的Quest风格头显。此举标志着Meta从"硬件主导"转向"平台赋能"的关键一步。然而,这一开放策略的实际落地效果如何?开发者生态是否已形成良性循环?跨品牌设备的用户体验一致性又能否保障?这些问题至今仍未完全解答。因此,本届大会极有可能进一步披露HorizonOS的生态进展、技术标准更新,乃至对第三方合作伙伴的支持机制。游戏、社交与VR世界的持续构建当然,内容生态仍是维系用户留存的核心。我们有理由期待更多关于Quest平台新游戏、沉浸式体验的发布,以及其社交虚拟空间HorizonWorlds的功能迭代。无论是更具互动性的虚拟化身系统,还是更丰富的创作工具,都将直接影响普通用户对"元宇宙"概念的真实感知。尽管外界对"元宇宙"的热度有所降温,但Meta仍在持续投入。每一次Connect大会都像是一次阶段性答卷--不急于兑现全部承诺,却始终在推进技术与产品的渐进式演进。可以肯定的是,无论最终发布什么,MetaConnect从来不只是关于硬件参数的堆叠,而是一场关于未来计算平台的叙事延续。我们也将持续跟进发布会动态,第一时间带来深度解读与现场观察。
2025年9月17日至18日,Meta年度开发者大会Connect即将拉开帷幕。这场被科技圈视为"元宇宙风向标"的盛会,今年却显得格外神秘--官方预告语焉不详,仅由扎克伯格亲自出面承诺:"分享AI眼镜最新进展,并阐述Meta在人工智能与元宇宙领域的愿景。"与此同时,CTO安德鲁·博斯沃思(AndrewBosworth)也在上月放出风声:将有"重磅可穿戴设备"发布,同时涉及AI与"元宇宙软件"的重大更新。但除此之外,Meta几乎守口如瓶。没有预热海报,没有倒计时页面,甚至连Keynote议程都极为克制。然而,从彭博社、TheVerge、金融时报等多家权威媒体的报道,结合Meta近年来的战略轨迹来看,我们仍能拼凑出一幅清晰的图景。真正的答案,或许就在周三晚上的直播中揭晓。智能眼镜正式登场:Hypernova与Celeste毫无疑问,本届Connect的最大焦点,将是Meta首款搭载微型抬头显示(HUD)的智能眼镜。据多方信源证实,这款代号为Hypernova的眼镜将在右眼嵌入一块小型单目光学显示单元,支持时间、天气、通知提醒、实时导航、语音字幕与翻译等功能。更重要的是,它将首次集成Meta长期研发的sEMG神经肌电腕带,通过手指微动作实现无接触操控。MetaHUD眼镜在泄露的早期固件中呈现。这并非传统意义上的AR眼镜--它不会叠加三维虚拟物体,也不会构建空间地图。它的定位更接近"AI助手的视觉延伸",将MetaAI的响应以文本形式直接呈现在视野中,取代语音播报。有趣的是,这款产品的真实命名可能早已泄露。7月,有人在Meta公开服务器的固件中发现了Hypernova及其腕带的渲染图,其中一处刻字清晰可见:"MetaCeleste"。这一命名极有可能成为最终上市名称。重量方面,由于增加了光学模组,Celeste整机重约70克,相较目前主流的Ray-BanMeta眼镜(50克)有所增加。价格也大幅提升:最初传闻定价超1000美元,但最新消息称已下调至800美元起。这意味着,Celeste并非面向大众消费市场的普及型产品,而是Meta在高端AI可穿戴领域的一次战略卡位。多品牌协同:OakleySphaera与Ray-Ban迭代猜想除了旗舰级AI眼镜,Meta在时尚与运动领域的布局也在加速。今年早些时候,Meta与依视路陆逊梯卡(EssilorLuxottica)联合推出了OakleyMetaHSTN,本质上是Ray-BanMeta的高配版:更高清的摄像头、更长续航,目标用户为户外运动爱好者。而据彭博社MarkGurman透露,双方还有一款基于Oakley经典Sphaera设计的新品正在路上。这款眼镜最大的变化在于--摄像头位于镜框中央。OakleySphaera眼镜的非智能型号。这一设计显然更利于第一人称视角拍摄,尤其适合骑行、滑雪等极限运动场景。其市场定位也将更加垂直,主打"运动员与冒险者"。至于消费者更熟悉的Ray-BanMeta系列,是否会迎来第二代升级?目前信息存在分歧。《TheInformation》报道称,下一代产品代号为Aperol和Bellini,计划2026年发布,将支持人脸识别与持续数小时的AI会话。但中国XR研究机构在7月发布的渲染图显示,新版本或已在内部测试,且分为光学镜片与太阳镜两种型号。考虑到HSTN刚推出不久且升级有限,短期内再推全新迭代的可能性较低。但若Meta希望借势AI眼镜热度带动生态扩张,也不排除提前发布轻量升级版的可能。开发者生态升级:智能眼镜SDK或将亮相无论哪款硬件最终发布,一个更关键的趋势正在浮现:Meta正试图构建智能眼镜的开放生态。Connect日程表显示,9月18日将有三场开发者会议明确提及"9月18日宣布新的Meta开发者工具包"。这些会议的主讲人均来自Meta的应用集成团队,LinkedIn资料显示他们专注于"将第三方应用接入Ray-BanMeta等AI驱动的智能眼镜"。更早前,CNBC也曾报道,Meta已邀请第三方开发者为HUD眼镜开发"实验性应用"。问题在于:这类眼镜算力极其有限,无法运行复杂本地应用。因此,所谓的SDK很可能并非传统意义上的客户端开发包,而是一套基于云端的AI服务接口--类似于亚马逊的AlexaSkills,允许开发者接入MetaAI的能力,实现语音指令、情境感知、实时翻译等服务。这标志着Meta对智能眼镜的定义已从"硬件产品"转向"AI入口平台"。Quest时代的终结?头显产品线进入静默期自2021年Connect大会上宣布公司更名并推出Quest2以来,每年的大会几乎都伴随着新一代头显的发布。但今年,这一惯例或将打破。我们几乎可以确定:Meta不会在2025年发布新款Quest头显。原计划中,Meta曾与LG合作开发QuestPro的继任者,但该项目已于今年初正式取消。LG已停止XR产品的商业化进程,仅保留基础研发。据知情人士透露,Meta下一代头显将是一款超轻量化、开放式周边设计的产品,计算单元外置(类似AirPodsPro的"耳挂+小盒"模式),搭载HorizonOS系统,预计2026年底才能面世。这意味着,Quest3和Quest3S将继续作为主力销售至少两年。而用户期待的"Quest4",短期内恐难现身。第三方入场:AsusROG头显或被"剧透"虽然Meta自身不再推新头显,但这并不意味着你不会在Connect上看到新设备。去年,Meta正式将Quest操作系统更名为HorizonOS,并宣布向第三方硬件厂商开放授权,首批合作伙伴包括华硕(Asus)与联想。其中,华硕将推出一款隶属于ROG(RepublicofGamers)系列的"高性能游戏头显"。据VR爱好者Luna年初获得的线索,该设备代号为Tarius,支持面部与眼动追踪,屏幕可能采用QD-LCD局部调光或micro-OLED方案。尽管目前尚无迹象表明该产品会在Connect2025上正式发布(更可能由华硕独立发布),但Meta完全有可能在主题演讲中"顺带提及"或进行预热展示。这不仅是对生态伙伴的支持,更是向行业传递信号:HorizonOS正在成为开放XR生态的核心平台之一。HorizonOS新功能:窗口共享或将对标AppleVisionPro如果说硬件是骨架,那么操作系统就是灵魂。去年,Meta大幅重构了HorizonOS的2D窗口管理系统,允许用户自由拖拽浏览器、安卓应用等界面,甚至可在沉浸式应用中保持后台运行。这一改进被广泛认为是对标AppleVisionPro的visionOS。但visionOS有一项核心功能至今缺席:跨用户窗口共享(SharePlay)。最新系统测试版(PTC)显示,HorizonOS已支持在VR主界面中"持久固定"窗口。而数据挖掘者Luna进一步发现,系统内部已出现"Share"按钮的相关代码,暗示未来可邀请他人查看自己的2D应用窗口。如果Meta在本次Connect上推出类似SharePlay的功能,将极大提升其在远程协作、社交娱乐场景中的竞争力。不过,如何解决DRM版权、传输延迟与稳定性问题,仍是技术挑战。游戏内容:DeadpoolVR压轴,大作续作或仅限"预告"近年来,Meta逐渐将重磅VR游戏的发布节点从Connect转移到夏季大型游戏展会。例如:《蝙蝠侠:阿卡姆阴影》(Batman:ArkhamShadow)于去年gamescom公布;《死侍VR》(DeadpoolVR)则在今年SummerGameFest亮相。《死侍VR》将于11月18日登陆Quest3与Quest3S,极有可能成为Meta今年唯一的第一方大作。不排除Meta会借此机会推出"购机送游戏"的捆绑促销。至于粉丝期待的《阿卡姆阴影2》,虽然已有配音演员确认项目启动,但鉴于开发周期较长,大概率不会在本次大会上公布。最多可能以"彩蛋"或"幕后花絮"形式短暂提及。Valve的"搅局"可能:SteamFrame商标已提交最后,还有一个"外部变量"值得关注:Valve。回顾2019年F8大会,Valve正是在Facebook的舞台上突然宣布Index头显并开启预售,成功抢走了Zuck的风头。六年后的今天,Valve与Meta的关系虽已缓和,但"趁势发布"的可能性依然存在。过去四年,Valve多次确认正在开发新一代头显,代号"Deckard"。近期,SteamVR代码中频繁出现"Roy"控制器模型,且Valve已于上周正式申请"SteamFrame"商标。此外,一个名为"SteamVRLinkDongle"的配件也被挖出,可能用于提升无线串流的稳定性,兼容所有独立头显。虽然Valve不太可能在Meta的舞台上正式发布新品,但选择在同一时段官宣,制造舆论热度,绝非不可能。结语:AI眼镜引领新趋势MetaConnect2025的主题已然清晰:从"元宇宙硬件"转向"AI可穿戴入口"。Quest产品线进入休眠期,重心全面向AI眼镜倾斜。Celeste的发布,不仅是硬件形态的突破,更是Meta对未来人机交互方式的重新定义--将AI能力无缝融入日常视觉体验。而随着HorizonOS生态开放、第三方厂商加入、开发者工具完善,Meta正在下一盘更大的棋:构建以AI为核心的下一代计算平台。周三晚5点(太平洋时间),一切终将揭晓。
我们早已熟悉Meta的Ray-Ban系列、谷歌的野心计划,以及传闻中苹果正在打磨的智能眼镜原型。这些科技巨头手握最新芯片、AI模型与庞大的设备生态,天然具备定义市场的资本。但智能眼镜的版图,远不止巨头间的角力。在Meta的聚光灯之外,一批中小型公司正悄然推进自己的产品路线。它们或许没有顶级供应链资源,却以更快的迭代速度、更精准的场景切入,在消费级智能眼镜的"第二战场"中,撕开了一道口子。从无屏摄像眼镜,到抬头显示(HUD)设备,再到真正的增强现实(AR)产品,这场硬件竞赛正在多线并行。而中国初创企业,正在其中扮演越来越关键的角色。无屏眼镜:从Snap到EchoFrames的早期探索严格来说,Meta的Ray-BanMeta并非第一款带摄像头的智能眼镜。早在2014年,Facebook就曾推出过市场反响平平的Ray-BanStories;再往前追溯,2012年一家名为Pivothead的初创公司就发布了内置1080p摄像头的智能眼镜,镜头位于镜框中央。枢轴头(2012)真正让"看起来像普通眼镜"的产品走进大众视野的,是2013年由VergenceLabs推出的EpiphanyEyewear。这款产品外形接近日常墨镜,却能实时录制第一视角视频。一年后,Snapchat母公司Snap收购了VergenceLabs,并以此为基础推出了三款Spectacles系列摄像眼镜(2016–2019年),全部为无屏设计。EpiphanyEyewear(2013年)SnapSpectacles(2017年)Pivothead、Epiphany和Spectacles的共性在于:它们都只具备摄像功能,缺乏扬声器和本地计算能力,本质上是"会拍照的眼镜",而非交互式设备。直到2019年(限量内测)和2020年(正式发售),亚马逊推出EchoFrames,才首次将音频交互带入日常眼镜形态。EchoFrames内置扬声器和麦克风,支持播放音乐、有声书、播客,并可与Alexa语音助手深度联动。但它没有摄像头--这既是隐私考量,也暴露了功能取舍的难题。Meta的整合突破:从Stories到AI语音助手转折点出现在2021年。Meta与依视路陆逊梯卡(EssilorLuxottica)联合推出的Ray-BanStories,首次将摄像头、扬声器、麦克风三者整合进一副外观接近普通墨镜的设备中,实现了真正的"可穿戴交互"。而更大的飞跃发生在2023年Ray-BanMeta发布后不久:一次固件更新带来了语音驱动的多模态AI功能。用户只需说一句"HeyMeta,帮我识别这是什么植物",眼镜即可通过摄像头捕捉画面,调用AI模型实时分析并语音反馈。亚马逊EchoFrames(2021年)雷朋Stories(2021年)这一功能如今已成为几乎所有无屏智能眼镜的核心卖点。它标志着智能眼镜从"记录工具"向"认知辅助设备"的跃迁。目前,全球已有数十家中国初创企业推出Ray-BanMeta的"平替"产品,价格更低、功能相似,形成了庞大的"类Meta眼镜"生态。而在更前沿的HUD与AR领域,竞争格局同样激烈。以下是一些与Ray-BanMeta和OakleyMetaHSTN竞争的主要无显示智能眼镜:SolosAirGoV2AI模型:ChatGPT/Claude/Gemini/DeepSeek价格:300美元发布时间:2025年第四季度可用性:全球小米AI眼镜人工智能模型:小爱同学价格:约300美元发行日期:2025年7月供应情况:仅限中国(目前)HTCViveEagle人工智能模型:Gemini/ChatGPT价格:约550美元发行日期:2025年9月供应情况:仅限中国台湾MentraLive在无显示智能眼镜中,MentraLive独具特色,拥有开源操作系统和SDK,任何开发人员都可以自由轻松地为其开发应用程序。价格:300美元(预购价250美元)发行日期:2025年12月供应情况:仅限美国Waves相机眼镜Waves的主要营销"功能"是它缺少摄像头LED,因此人们不知道您何时在录制。价格:300-500美元发行日期:2026年可用性:全球JioFramesJio是印度最大的移动网络,据报道正在考虑在该国推出一款廉价的HorizonOS耳机。价格:待定发行:待定供应情况:仅限印度HUD眼镜:绿色文字的"现实叠加层"HUD(抬头显示)眼镜的核心,是在用户视野中叠加一层固定位置的信息层,如通知、导航、翻译或AI输出。这类信息通常通过波导技术投射,力求在不遮挡真实世界的情况下提供辅助。值得注意的是,本文所指的HUD眼镜,不包括XReal、Viture这类"虚拟显示器"眼镜。后者采用"鸟浴式"光学设计,镜片体积大、视野外扩明显,佩戴感更像头显,难以作为全天候日常眼镜使用。全彩双目显示Meta✅❌北焦 NorthFocals✅❌EvenG1❌✅BrilliantLabsHalo✅❌Rokid眼镜❌✅XRAIAR2❌✅INMOGO2❌✅Halliday眼镜❌❌亚马逊✅❌NorthFocals:被埋没的先驱早在2019年,加拿大公司North就推出了Focals--第一款真正意义上外观接近普通眼镜的消费级HUD产品,售价600美元。Focals采用单目光彩显示,图像仅投射至右眼,但色彩完整,支持基础通知与语音交互。北焦(2019)Focals在极客圈中拥有近乎"邪典"般的追随者,其设计理念远超时代。2020年,Google收购North,Focals2.0项目被取消。但其技术基因延续至今,体现在Google与三星在I/O2025上展示的单目HUD参考设计中。EvenG1:首款真·日常HUD眼镜中国初创公司EvenRealities(总部深圳,德国设子公司)今年初推出了G1,被业内视为首款真正适合全天佩戴的HUD眼镜。两种EvenG1风格。G1采用双目单色(绿色)microLED显示,分辨率为640×200,视场角25度,亮度约1000尼特。虽然只能显示绿色文字,但双目成像提升了沉浸感与阅读舒适度。它没有摄像头或扬声器,专注文本类场景:如实时字幕翻译、演讲提词、导航指引等。重量仅40克,售价600美元起,提供圆形与矩形两种镜框设计,外观几乎与普通眼镜无异。BrilliantLabsHalo:AI驱动的"低代码"眼镜新加坡初创公司BrilliantLabs已推出第三代产品Halo。其前两代Monocle与Frame分别以附加镜片和外显式单色HUD试水市场,而Halo则进一步集成。Halo采用单目光彩显示,模块位于右镜片上方,支持屈光度调节。配备骨传导扬声器、双麦克风,并搭载一个"低功耗光学传感器"--专为视觉AI模型设计,而非用于录像。开箱即用的AI助手Noa可进行语音交互,同时提供SDK,允许开发者通过蓝牙设备调用其传感器与显示功能。更特别的是,Halo支持"vibemode":用户只需描述需求,即可生成简单应用,无需编码。Halo重40克,预售价300美元,预计2025年第四季度发货。RokidGlasses与Halliday:绿色HUD的中国力量Rokid长期布局AR显示领域,近期推出首款外观接近普通眼镜的HUD产品。RokidGlasses采用双目单色(绿色)显示,售价600美元,预计2025年9月起出货。另一款来自HallidayGlasses的产品今年初限量发售,采用单目单色(绿色)显示,售价500美元,定位极客与开发者群体。亚马逊的"双线战略":消费者与物流场景并行据《TheInformation》本周报道,亚马逊也在研发单目HUD眼镜,并规划了两条产品线:一款面向消费者,另一款专为快递员设计。报道称,快递员用版本将更厚重,配备单色显示,计划2026年中量产约10万台;消费者版本则追求轻薄设计,采用全彩显示,预计2026年底或2027年初上市。若消息属实,这将是亚马逊在EchoFrames之后,对智能眼镜场景的又一次重大拓展,尤其在B端物流效率提升方面潜力巨大。真·AR眼镜:中国先行,Snap押注未来在西方市场,目前尚无真正意义上的消费级AR眼镜--即外观接近普通眼镜、能将虚拟物体稳定锚定在现实空间的产品。尽管Xreal、Viture等品牌提供6自由度(6DoF)追踪的虚拟显示器,但其"鸟浴式"光学结构导致设备笨重、视野受限,无法作为日常佩戴的眼镜使用。RayNeoX3Pro:窄视场的中国尝试在中国,TCL支持的初创公司RayNeo已推出TrueAR眼镜近一年。其X2型号虽技术上支持空间定位,但25度的极窄视场与糟糕的位置追踪体验,使其难以被视为成熟AR产品。其继任者X3Pro于今年5月在中国上市,售价约1300美元,重量约80克。视场角未改善,但据称位置追踪能力有所提升。SnapSpecs(2026):十年一剑的AR野心Snap在2025年6月宣布,将于2026年推出完全独立的消费级AR眼镜--Specs。这是其十年智能眼镜布局的集大成之作。此前,Snap在2016–2019年推出三款非AR摄像眼镜;2021年起发布两代AR眼镜开发套件Spectacles。第一代视场角仅26度,续航30分钟,重134克;第二代视场角提升至46度,续航45分钟,但重量增至226克,形态更接近头显。两代开发套件均支持手势追踪,运行Snap自研的轻量级操作系统SnapOS,应用生态基于LensStudio开发的"Lenses"。SnapCEOEvanSpiegel承诺,2026年的Specs产品将实现"更小的体积、更轻的重量、更强的功能",同时兼容所有现有Lenses。若能兑现,这或将成为首款真正具备消费潜力的AR眼镜。