在2025年第三季度财报电话会议上,全球眼镜巨头EssilorLuxottica披露,其整体营收同比增长11.7%,其中超过4个百分点的增长来自其"可穿戴设备"(Wearables)部门--该部门目前主要由与Meta合作的智能眼镜系列以及Nuance音频技术构成。这意味着智能眼镜已成为这家传统光学巨头增长的最关键引擎。Meta合作矩阵成型,销量爆发式增长自2021年推出初代Ray-BanStories以来,EssilorLuxottica与Meta的合作不断深化,目前已推出六款智能眼镜产品:Ray-BanStories(已停产)第一代Ray-BanMetaOakleyMetaHSTN第二代Ray-BanMetaOakleyMetaVanguardMetaRay-BanDisplay(带AR显示功能)这一系列产品的市场表现远超预期。根据公司此前披露:截至2024年底,仅Ray-BanMeta系列销量已突破200万台;到2025年第二季度,智能眼镜整体销量相较去年同期增长超过三倍,被公司形容为"表现极为出色"。产能提前翻倍,2026年目标1000万台为应对持续攀升的需求,EssilorLuxottica在2024年2月宣布,计划到2026年底将智能眼镜年产能提升至1000万台。而在最新的财报会议上,首席财务官StefanoGrassi透露,由于业务"进一步加速",公司预计将早于原计划实现这一产能目标。Grassi同时确认,智能眼镜业务已在绝对意义上实现盈利,并透露约20%的消费者选择为其智能眼镜配备处方镜片,凸显其作为日常穿戴设备的实用属性。Meta重金入股,联盟关系深度绑定2025年初,Meta向EssilorLuxottica投资30亿欧元,获得其3%的股权,并在此前已达成"延续至下一个十年"的长期合作协议。这一战略合作使双方在产品设计、光学技术、制造与零售渠道上形成深度协同,巩固了其在消费级智能眼镜市场的绝对领先地位。市场领先但挑战将至:谷歌、苹果虎视眈眈尽管Meta与EssilorLuxottica的联盟目前领跑市场,但竞争正迅速逼近:谷歌在2025年5月I/O大会上宣布,将与WarbyParker和GentleMonster合作开发搭载GeminiAI的智能眼镜,并计划与KeringEyewear(拥有Gucci、SaintLaurent等品牌授权)展开合作。韩媒6月报道称,谷歌正接近完成对GentleMonster4%股权的收购。苹果据传也在研发类似产品,分析师MarkGurman与郭明錤预测,苹果智能眼镜或将于2027年初发布。
2025年10月16日,INMO正式推出新一代AI智能眼镜INMOGO3,同步发布"未来科技美学"(FutureTechAesthetic)设计理念,旨在从形态、功能与用户体验三个维度,重新定义消费级智能眼镜的产品范式。此次发布不仅聚焦硬件创新,更标志着INMO从单一设备厂商向全球性AI+AR生态系统平台的战略跃迁。同日,INMO正式上线INMOWorld--一个开放的全球AI+AR生态系统平台。该平台已与蚂蚁集团(ANTGROUP)、腾讯应用宝、Z.ai等行业头部企业达成战略合作,致力于构建原生AR内容生态,推动智能眼镜从"配件"向"下一代计算终端"演进。联合蚂蚁集团打造轻量化支付系统,推动眼镜端交易闭环在AI生态系统布局中,INMO与蚂蚁集团的合作尤为关键。双方将共同攻克低功耗实时操作系统(RTOS)的技术瓶颈,开发轻量级、高安全性的支付解决方案,未来用户将可通过INMO智能眼镜直接完成支付操作。该方案还将集成蚂蚁的gPass框架,实现数字身份、票证与AI服务的无缝流转,为智能眼镜注入更深层的服务能力。首发接入腾讯应用宝,设立2000万基金扶持原生应用开发在内容生态建设方面,INMO成为首个接入腾讯应用宝的智能眼镜品牌。通过开放SDK,腾讯开发者将能为INMO平台开发原生AI应用。为加速内容供给,INMO联合腾讯设立2000万元专项基金,用于支持开发者创作高质量的AI+AR应用,直面行业长期存在的"应用荒"痛点。推出"对话精灵"AI助手,实现从被动响应到主动智能的跨越INMO与Z.ai联合发布全新AI助手--"对话精灵"(DialogueGenie),基于Z.ai的GLM大模型驱动。该助手不仅支持实时信息检索与智能应答,更具备上下文理解能力,可在会议、面试、销售等复杂场景中预判用户需求,主动推送相关数据与建议,实现从"被动响应"到"主动智能"的范式升级。拓展AI服务场景,布局线下体验网络围绕用户高频需求,INMO计划联合生态伙伴拓展AI购物助手、AI旅行导览、AI比价等实用服务,未来将通过INMOStore统一提供。与此同时,INMO宣布正式进军线下零售,携手LOHO等合作伙伴,将产品体验网点扩展至超过2000家门店,加速消费者认知建立与市场渗透。
本周,智能眼镜与眼动追踪解决方案提供商Viewpointsystem正式推出VPSNext--其第三代眼动追踪智能眼镜系统。该产品专为专业及工业领域设计,面向制造、交通、国防、体育等对效率与安全性要求极高的行业,旨在通过第一视角视频流与实时眼动数据分析,提升远程协作、培训与操作效率。模块化设计与即用型体验VPSNext采用可扩展的模块化架构,起始重量仅为38克,提供多种配置选项,包括符合安全认证的防护眼镜型号以及无框无镜片的轻量版本,适配不同用户脸型与工作场景。设备通过镜架上的单一多功能按钮即可完成操作,强调"开箱即用"的便捷性。配套的95克轻量计算单元"LiteUnit"通过线缆连接眼镜,集成Wi-Fi、蜂窝数据与蓝牙功能,可置于口袋或固定于头盔、手臂、腰带等位置,兼顾移动性与稳定性。实时协作与眼动洞察的融合VPSNext平台支持从佩戴者视角进行高清视频直播,内容可实时传输至智能手机、平板或笔记本电脑,便于远程专家提供指导与支持。系统不仅支持音视频双向通话,还允许远程方在视频流中直接绘制标注,实现精准的视觉引导。其核心优势在于集成的眼动追踪能力:系统采用专利双摄像头方案,以120fps高频率捕捉用户视线,可生成热力图与注视点数据,并支持实时显示佩戴者的视觉焦点。这些数据可被自动分析,用于评估注意力分布、操作流程合理性及培训效果。所有数据传输均经过加密处理,且支持本地存储模式,确保企业对敏感信息的完全控制,满足工业场景下的安全合规要求。已落地的商业价值:多家巨头验证ROIViewpointsystem强调,VPSNext已在多个行业实现可量化的投资回报。包括丰田(Toyota)、电装(Denso)和德国铁路(DeutscheBahn)在内的企业已部署该技术,具体案例包括:工业领域:奥地利联邦铁路(ÖBB)在调车作业中使用VPS眼镜后,未经授权的信号闯入事件减少了44%。此外,该技术还用于60个站点的车厢检查培训,提升标准化操作水平。国防应用:奥地利武装部队、加拿大军方及其他北约成员国军队正利用该系统训练士兵的注意力与态势感知能力。制造业:某制造客户通过部署VPS眼镜,实现生产线产出提升18%;一家国际啤酒集团在应对生产中断与设备故障时,单次事件节省成本约4万美元。体育分析:一家"欧洲顶级足球俱乐部"正使用VPS眼镜分析球员在战术情境下的视觉行为,优化决策训练。技术规格与定价VPSNext配备前置摄像头,支持HD+视频录制与4K拍照,拥有112°宽广视场角。眼动追踪系统运行于120fps高刷新率,电池续航约3小时,具备IP54级防尘防水性能,并提供安全认证镜片选项。基础售价为5,040美元,具体价格根据软件功能包配置浮动。
2025年10月10日,日本知名云计算服务商樱花互联网(SakuraInternet)与XR技术企业STYLY宣布达成战略合作,双方签署基本协议,将围绕"物理AI"(PhysicalAI)领域展开深度协同。合作目标是融合高性能云计算与扩展现实技术,打造面向智能眼镜的下一代AI交互基础设施。当前,智能眼镜正逐步从概念走向实用,成为AI落地的重要终端形态。物理AI作为连接数字智能与现实世界的桥梁,通过传感器、XR设备与人工智能的融合,使AI能够理解真实空间中的环境与人类行为。而智能眼镜作为贴身终端,具备持续感知、低干扰交互的优势,被视为继手机之后的下一代人机接口。安全可信云底座:数据本地化处理成关键优势樱花互联网以稳定、安全的IDC服务起家,近年来积极布局AI算力市场,推出"高火力"与"SakuraAI"等面向生成式AI的云服务平台。其核心竞争力在于所有数据中心均部署于日本境内,实现数据全程境内流转,满足金融、制造、科研等领域对数据主权与合规性的高要求。在此次合作中,樱花互联网将提供高性能、低延迟的云基础设施,确保由智能眼镜采集的空间数据、视觉信息与用户行为在本地完成处理,避免敏感数据跨境传输。这一"本地化处理"模式,为高安全等级场景下的AI应用提供了可靠支撑,也为未来中国等市场对数据治理日益严格的环境下提供了可借鉴的技术路径。XR平台赋能空间交互:重构人与信息的连接方式STYLY是日本领先的AR/XR内容与平台服务商,其自研的"STYLY"平台支持跨终端的沉浸式内容快速搭建,广泛应用于品牌营销、展览展示、文娱演出等领域。公司拥有扎实的空间计算能力与XR交互设计经验,擅长将数字内容自然融入现实空间。在合作中,STYLY将负责XR界面开发、空间交互逻辑设计及内容生态运营。通过其平台能力,实现AI智能体在三维空间中的可视化呈现与自然交互。例如,在工业巡检中,维修人员通过眼镜即可看到设备运行状态、故障提示与AI操作建议,大幅提升作业效率。聚焦智能眼镜:探索多行业落地场景双方计划联合研发专为智能眼镜优化的AI解决方案,重点推进以下方向:AI智能体应用:开发具备环境感知与任务执行能力的虚拟助手;空间UI/UX创新:基于空间计算重构交互范式,提升操作直觉性;跨行业场景拓展:覆盖教育、零售、文旅、制造等多个领域。例如,在零售门店,店员佩戴智能眼镜可实时获取顾客画像与AI推荐话术;在教育培训中,教师可通过AR界面动态展示三维模型,增强教学沉浸感。随着AI向物理世界延伸,云计算、空间计算与终端设备的协同正成为技术落地的关键。此次樱花互联网与STYLY的合作,不仅展现了日本在XR与边缘AI领域的布局,也为中国企业在构建安全、高效、沉浸式人机交互体系方面提供了有价值的参考。
据韩国《金融新闻》(TheFinancialNews)报道,三星与谷歌正计划于明年联合推出搭载单目抬头显示(HUD)的智能眼镜,直接对标Meta与雷朋(Ray-Ban)合作的智能眼镜系列。这一消息标志着两家科技巨头在可穿戴设备领域进一步深化合作,意图在快速增长的智能眼镜市场中抢占先机。从概念展示到产品落地今年早些时候,谷歌在TED2025和I/O2025大会上公开展示了一款搭载单目HUD的"参考设计"(referencedesign)智能眼镜,该设备由三星负责硬件设计。尽管当时双方并未宣布具体产品计划,但此次报道确认,这款概念产品将被正式商品化,并于2026年推向市场。这款即将推出的眼镜预计将具备实时信息叠加、语音交互与AI助手(如Gemini)集成等核心功能,用户可在视野中直接查看通知、导航、翻译等内容,实现更自然的交互体验。其目标明确指向Meta与雷朋联合推出的带显示屏版本--Ray-BanMetaDisplay。双线布局:高端带屏与平价无屏报道还指出,三星正在同步开发一款不带显示屏的低成本智能眼镜,旨在与Meta的基础款Ray-BanMeta眼镜竞争。这一双线策略表明,三星与谷歌意在覆盖更广泛的消费群体:高端产品主打增强现实(AR)信息交互,而平价型号则聚焦音频、健康监测与AI语音助手等基础功能。此外,谷歌此前已宣布与GentleMonster、WarbyParker等眼镜品牌合作开发Gemini智能眼镜,并将与KeringEyewear展开未来合作。值得注意的是,谷歌明确表示其合作产品的镜片显示功能将"可选",暗示多数初期产品仍将聚焦无屏体验,而三星-谷歌联合推出的HUD眼镜或将成为其首款真正意义上的AR显示设备。软硬协同:对抗Meta的生态组合拳此次合作延续了三星与谷歌在XR领域的战略分工:三星主导硬件设计与制造,谷歌提供基于AndroidXR的操作系统与AI服务。这种模式与双方正在联合开发的首款AndroidXR头显(传闻命名为GalaxyXR)一脉相承,预计该头显将于本月晚些时候发布。通过整合三星的硬件制造能力与谷歌的AI、地图、Assistant、Gemini等服务生态,双方试图构建一个完整的可穿戴设备体系。相较于Meta以社交和娱乐为核心的闭环生态,三星与谷歌的联盟更强调跨设备协同与开放性,或将成为挑战Meta在智能眼镜领域先发优势的关键力量。
如果你计划将MetaRay-BanDisplay作为日常佩戴的处方眼镜,以下是关于其支持范围、定制流程及使用体验的全面解析。什么是MetaRay-BanDisplay?MetaRay-BanDisplay在普通智能眼镜功能基础上,新增了一块集成于右镜片的微型单目光学显示系统(HUD,抬头显示器)。用户可通过佩戴MetaNeuralBand(神经腕带)进行交互--该腕带利用表面肌电图(sEMG)技术,感知手腕肌肉活动以识别手指手势,实现无需触碰眼镜的操控。核心显示参数:视场角:约20度(对角线)亮度:最高5000尼特分辨率:600×600,42像素/度(高于AppleVisionPro)光泄漏:仅2%,旁人几乎无法察觉显示内容主要功能包括:MetaAI视觉助手:提供带图文的分步导航消息与视频通话:支持WhatsApp、Messenger、Instagram拍照/录像预览与缩放行人导航:在28个城市提供迷你地图实时字幕与翻译:面向对话对象音乐播放控制:支持切歌、快进2025年12月更新:通过手指在桌面滑动输入文字重量与设计:重量:69克(普通版为50克,非智能款为45克)设计:镜框与镜腿更厚,以容纳显示模组与电池Meta官方宣称日常使用续航约6小时,实际表现有待评测验证。处方支持:定制化、高成本、无售后更换与普通Ray-BanMeta智能眼镜不同,MetaRay-BanDisplay的处方支持无法通过后期更换镜片实现。原因在于其右镜片内嵌了精密且昂贵的光学波导(waveguide)结构,用于投射HUD图像,因此不能像普通镜片那样随意拆卸。如何获得处方版?制造阶段定制:处方镜片在生产时直接与显示镜片bonding(粘合),形成一体化结构。仅支持单焦点镜片:采用聚碳酸酯材质,带有"高级防反射涂层"。变色功能:支持从透明到灰色的Transitions变色技术。支持的视力问题范围:近视(Myopia):-4.0D至0远视(Hyperopia):+4.0D至0散光(Astigmatism):最高±4.0D柱镜(CYL)注意:总屈光度需在-4D至+4D范围内。费用与交付周期:处方定制费:200美元总价:基础款799美元+腕带199美元+处方费200美元=总计1198美元交付时间:下单后需5至8周,因镜片为定制生产购买流程:必须预约线下体验目前,购买MetaRay-BanDisplay必须预约线下零售商进行演示。演示环节:可携带处方信息,店员会插入临时演示镜片,让你体验HUD显示效果。注意:这些演示镜片不对外销售,仅用于体验,可能影响显示质量或增加厚度。演示后若决定购买,Meta将根据你的处方定制并发货。总结:为科技体验付出的代价项目普通Ray-BanMetaMetaRay-BanDisplay处方支持官方/第三方,可后期更换($25–$100)仅制造时定制,不可后期更换(+$200)镜片更换简单弹出更换不可更换,一体化bonding重量50克69克交互方式触控、语音MetaNeuralBand(sEMG手势)显示功能无单目HUD,42PPD,5000尼特MetaRay-BanDisplay为追求前沿科技体验的用户提供了前所未有的AR交互方式,但将其作为日常处方眼镜使用,意味着你必须接受高昂的定制成本、漫长的等待周期,以及永久性的一体化设计--一旦你的视力变化,可能需要重新购买整副眼镜。
继2022年在加州伯林盖姆(Burlingame)开设首家门店后,Meta正式宣布将扩大其线下零售版图。公司将于2025年10月24日在洛杉矶梅尔罗斯大道(MelroseAvenue)开设第二家永久性旗舰店--MetaLab,并同步在纽约和拉斯维加斯推出临时快闪店,全面展示其智能眼镜与VR硬件生态。洛杉矶旗舰店:2万平方英尺的"未来科技秀场"位于潮流地标梅尔罗斯大道的MetaLab洛杉矶店被Meta称为其"旗舰店"(flagshipretaillocation),占地高达20,000平方英尺,横跨多层空间,专为沉浸式体验而设计。店内将完整陈列Meta全线硬件产品,包括:智能眼镜系列:Ray-BanMetaGen2、OakleyMetaHSTN、OakleyMetaVanguard、Ray-BanMeta显示款(Ray-BanMetaDisplay)VR头显系列:Quest3、Quest3SMeta表示,空间设计"专门用于突出硬件的功能与优势",让用户能在真实场景中体验AR/VR技术如何融入日常生活。快闪店同步登场:覆盖纽约与拉斯维加斯除了永久门店,Meta还将在以下两地开设临时"快闪空间"(pop-upspaces),重点推广其智能眼镜:拉斯维加斯快闪店:位于永利酒店(Wynn)内,面积560平方英尺,10月16日开放。纽约第五大道快闪店:规模更大,达5000平方英尺,11月13日开业。限定款透明眼镜首发,数量有限为配合新店开业,Meta将在这四家线下门店(洛杉矶、伯林盖姆、纽约、拉斯维加斯)独家发售一款限量版透明款Ray-BanMetaGen2,搭配"棕金镜面"(brownmirrorgold)镜片。该款式设计时尚,极具未来感,但数量有限。Meta官方建议消费者在开业首日前往门店,以确保能够入手。"微型商店"计划曝光,或采用自动贩卖机形式Meta还透露,未来将推出一系列专注于智能眼镜的"微型商店"(micro-stores)。据推测,这些店铺可能类似于其在Connect2025大会上展示的硬件自动贩卖机。这一模式曾被Snap在近十年前尝试用于初代Spectacles眼镜销售,但当时未能成功。如今,随着AR眼镜市场逐渐成熟,Meta或将重新激活这一概念,实现更灵活、低成本的线下触达。
在Connect2025大会上,Meta正式推出首款带显示屏的
翻车之后,CTO亲自拆解故障根源在2025年MetaConnect大会的主舞台上,两场关键智能眼镜功能的现场演示接连失败,让马克·扎克伯格罕见地陷入尴尬。当时他将问题归因于"会场Wi-Fi太差",但事后,Meta首席技术官安德鲁·博斯沃思(AndrewBosworth)在Instagram的AMA问答中,给出了更真实、也更技术性的解释。这不是简单的网络问题,而是两个独立系统缺陷,在高压环境下被意外触发的结果。LiveAI为何陷入"已混合原料"死循环?第一场故障出现在"LiveAI"功能的演示中。该功能允许用户与MetaAI进行持续对话,无需反复唤醒"HeyMeta",AI还能实时感知视野内容。现场,厨师JackMancuso在Meta园区厨房启动功能后,AI准确识别了酱油等食材。但当他询问如何制作韩式牛排酱时,AI却不断重复:"你已经混合了基础原料。"博斯沃思解释,真正原因是:声音广播引发全楼设备误触发。Mancuso说"HeyMeta,startLiveAI"时,声音通过会场扬声器播放;导致建筑内所有Ray-BanMeta眼镜同时启动LiveAI;为保障演示稳定,Meta将园区LiveAI流量集中导流至一台开发服务器;成百上千并发请求瞬间压垮服务器,导致响应异常。至于为何AI反复声称"已混合原料",博斯沃思未作说明。合理推测是:服务器崩溃后返回了缓存中的排练数据;另一种可能是,Meta在演示中预设了部分流程,系统故障后暴露了"半真半假"的底层逻辑。更值得警惕的是:MetaAI至今不支持声纹识别。而Siri、Alexa、GoogleAssistant早已实现语音身份认证,防止误操作或隐私泄露。视频通话失败:一个"休眠"引发的系统死锁第二场故障发生在扎克伯格亲自演示MetaRay-BanDisplay眼镜接听WhatsApp视频来电时。理论上,他应能语音或手势接通,画面直接显示在镜片上。多家媒体(如TheVerge)实测确认功能可用,但现场却连续四次失败。博斯沃思透露,根本原因是一个极小概率的"竞态条件"(racecondition):来电通知到达的瞬间,眼镜显示屏恰好进入休眠状态;系统未能正确处理通知与唤醒的时序冲突,导致来电被阻塞;更严重的是,该错误使系统进入异常状态,后续所有呼叫均无法接入。他坦言:"这种bug出现在这种场合,真是糟糕透顶。"尽管团队已测试上百次,此前从未复现。如今漏洞已被修复。正常视频通话时为什么坚持高风险的"真演示"?尽管翻车,博斯沃思仍为"真实演示"辩护。他在AMA中表示:"我不明白人们觉得风险在哪……去看看媒体评测吧,如果产品不好用,他们根本不会写好评。他们试了,也说了:这东西是真的,能用。观众都懂--没人日常处在2500个无线设备同时干扰的环境里。"这代表了一种与苹果"精心编排式发布"截然不同的产品哲学:宁可暴露瑕疵,也要展示真实能力。业内反应两极:有人嘲讽,也有人认为这种"不完美"反而增强了可信度--毕竟,预发布阶段的演示本就充满不确定性。用户可亲自验证,产品才是最终裁判从9月30日起,MetaRay-BanDisplay眼镜已在BestBuy、LensCrafters和Ray-Ban门店开放体验。这意味着,消费者不再需要依赖发布会表现,而是可以亲自验证功能是否流畅。演示可以翻车,但产品必须经得起真实世界的考验。对Meta而言,真正的挑战,才刚刚开始。
国产AR品牌RayNeo宣布,其最新智能眼镜RayNeoX3Pro将于2025年内正式登陆全球市场。这款产品目前已在中国市场发售,接下来将启动国际扩张计划,标志着中国消费级AR硬件迈出关键一步。作为RayNeo的旗舰型号,X3Pro不仅在光学显示上追求极致,更在AI交互与空间感知能力上全面升级,试图在Meta、Apple、XReal等巨头夹击下,开辟一条差异化路线。双目全彩MicroLED,亮度高达6000尼特RayNeoX3Pro搭载双目全彩显示系统,实现双眼独立的AR画面呈现,显著提升沉浸感与视觉平衡性。其核心采用MicroLED导波光路技术,峰值亮度可达6000尼特--这一数值远超当前主流AR设备,意味着在户外强光环境下依然能清晰显示虚拟内容。高亮度+轻量化设计的结合,使X3Pro在通勤、旅行、户外办公等真实场景中具备更强实用性,直指"全天候可用"的消费级AR目标。搭载GoogleGemini,AI能力成核心卖点真正让X3Pro脱颖而出的,是其深度集成的AI能力。该设备搭载GoogleGeminiAI模型,支持多项智能功能:实时语音翻译:面对面交流时可实现跨语言字幕叠加;文本摘要:快速提取网页、文档关键信息;空间导航:结合AR叠加层,提供室内外步行指引。这标志着AR眼镜正从"显示终端"向"AI代理入口"演进。借助Gemini的多模态理解能力,X3Pro能更自然地理解用户所见所言,实现"所见即所得"的交互体验。6DoF加持,支持手势识别与AR捕捉硬件层面,X3Pro还配备了6DoF(六自由度)空间追踪系统,可精确捕捉设备在三维空间中的位置与姿态变化。这一能力为以下功能提供支撑:场景识别:自动识别环境类型(如街道、室内、商店);手势操控:无需手柄,通过手势完成选择、拖拽等操作;AR内容捕捉:将现实场景与虚拟标注结合,一键保存或分享。6DoF的加入,意味着X3Pro已超越"信息提示眼镜"的范畴,具备了构建空间计算平台的基础能力。随着2025年全球发售临近,RayNeoX3Pro或将面临本地化适配、生态建设与品牌认知等多重挑战。但其在显示、AI与交互上的综合表现,无疑为全球消费者提供了一个值得关注的中国AR选项。