国产AR品牌RayNeo宣布,其最新智能眼镜RayNeoX3Pro将于2025年内正式登陆全球市场。这款产品目前已在中国市场发售,接下来将启动国际扩张计划,标志着中国消费级AR硬件迈出关键一步。作为RayNeo的旗舰型号,X3Pro不仅在光学显示上追求极致,更在AI交互与空间感知能力上全面升级,试图在Meta、Apple、XReal等巨头夹击下,开辟一条差异化路线。双目全彩MicroLED,亮度高达6000尼特RayNeoX3Pro搭载双目全彩显示系统,实现双眼独立的AR画面呈现,显著提升沉浸感与视觉平衡性。其核心采用MicroLED导波光路技术,峰值亮度可达6000尼特--这一数值远超当前主流AR设备,意味着在户外强光环境下依然能清晰显示虚拟内容。高亮度+轻量化设计的结合,使X3Pro在通勤、旅行、户外办公等真实场景中具备更强实用性,直指"全天候可用"的消费级AR目标。搭载GoogleGemini,AI能力成核心卖点真正让X3Pro脱颖而出的,是其深度集成的AI能力。该设备搭载GoogleGeminiAI模型,支持多项智能功能:实时语音翻译:面对面交流时可实现跨语言字幕叠加;文本摘要:快速提取网页、文档关键信息;空间导航:结合AR叠加层,提供室内外步行指引。这标志着AR眼镜正从"显示终端"向"AI代理入口"演进。借助Gemini的多模态理解能力,X3Pro能更自然地理解用户所见所言,实现"所见即所得"的交互体验。6DoF加持,支持手势识别与AR捕捉硬件层面,X3Pro还配备了6DoF(六自由度)空间追踪系统,可精确捕捉设备在三维空间中的位置与姿态变化。这一能力为以下功能提供支撑:场景识别:自动识别环境类型(如街道、室内、商店);手势操控:无需手柄,通过手势完成选择、拖拽等操作;AR内容捕捉:将现实场景与虚拟标注结合,一键保存或分享。6DoF的加入,意味着X3Pro已超越"信息提示眼镜"的范畴,具备了构建空间计算平台的基础能力。随着2025年全球发售临近,RayNeoX3Pro或将面临本地化适配、生态建设与品牌认知等多重挑战。但其在显示、AI与交互上的综合表现,无疑为全球消费者提供了一个值得关注的中国AR选项。
在今日的MetaConnect2025大会上,Meta正式推出Ray-BanMetaGen2智能眼镜,并已开放预购。作为初代无屏智能眼镜的迭代产品,Gen2在关键性能上全面对标今年早些时候发布的OakleyMetaHSTN,实现了视频录制与续航能力的重大飞跃。核心升级:3K视频+8小时续航初代Ray-BanMeta于2023年底发布,受限于1080p分辨率和仅4小时的典型使用续航,在实用性上存在短板。而新发布的Gen2彻底弥补了这些差距:视频录制:支持最高3K分辨率(约2880×1620),远超初代的1080p。电池续航:典型使用下可达8小时,较前代翻倍。此外,用户可在三种录制模式中自由选择:1200p@60FPS(流畅动作捕捉)1440p@30FPS(平衡画质与文件大小)3K@30FPS(最高画质)所有模式下,单次录制最长可达3分钟,满足日常瞬间记录需求。功能延续:仍是那副"听得见、拍得到"的智能眼镜除了硬件升级,Ray-BanMetaGen2的核心功能体验与初代保持一致:无屏幕设计,依赖语音交互内置12MP摄像头,支持拍照与视频五麦克风阵列+双耳外放扬声器支持音乐、播客、有声书播放接打电话、语音助手(HeyMeta)实时语音翻译、二维码扫描通过MetaAI(基于大语言模型的视觉助手)识别眼前物体并提供信息第一人称视角直播至WhatsApp和Messenger视频通话可设置播报手机通知简而言之,它依然是一副专注于听觉交互与第一视角记录的时尚智能眼镜,而非AR显示设备。价格策略:双线并行,覆盖不同预算Ray-BanMetaGen2:起售价$380,即日起发售。初代Ray-BanMeta:将继续销售,作为更实惠的选择,起售价$300。这一策略让Meta能够同时满足追求最新性能的用户和预算敏感型消费者,巩固其在消费级智能眼镜市场的主流地位。同场发布:Meta首款带屏眼镜Ray-BanDisplay正式亮相值得一提的是,本次发布会还正式推出了MetaRay-BanDisplay--Meta首款搭载单目AR显示屏的智能眼镜,售价$800,包含MetaNeuralBand(sEMG神经腕带),初期仅在美国部分实体零售商(如BestBuy、SunglassHut等)发售。相比之下,Ray-BanMetaGen2定位更偏向大众市场,是Meta在"无屏智能音频眼镜"赛道上的又一次精准升级,确保其在OakleyHSTN发售后仍能保持产品线竞争力。
在今日的MetaConnect2025发布会上,Meta揭示了一项酝酿多年的新功能--ConversationFocus(对话聚焦),旨在通过其智能眼镜增强用户在嘈杂环境中的听觉体验。该功能可实时放大对话对象的声音,抑制背景噪音,被Meta描绘为一种"感知超能力"(perceptualsuperpowers)的现实落地。这一构想最早可追溯至2020年Facebook时期的研究项目"增强听觉"(enhancedhearing),历经多年算法与硬件协同优化,终于迎来实际应用阶段。"听清你面前的人":技术原理与使用场景在发布会演示视频中,一名用户站在喧嚣街头,与朋友交谈时突然停下,对眼镜说出指令:"HeyMeta,startconversationfocus."随即,系统启动音频增强模式,将对话者的声音在耳内显著放大。扎克伯格现场承诺:"如果你在一家嘈杂的餐厅,你基本上可以'调高'朋友的音量。"这一功能依赖于眼镜上的多麦克风阵列与AI音频分离技术,通过空间定位识别正前方说话者的声音,并动态抑制周围环境噪声,实现类似"听觉变焦"的效果。Meta表示,该功能将支持其全线智能眼镜产品,包括:Ray-BanMetaRay-BanMetaGen2OakleyMetaHSTNOakleyMetaVanguardMetaRay-BanDisplayGlasses演示中的争议:实用vs.打断尽管概念极具吸引力,但演示视频也引发了一些质疑。在播放片段中,被放大的语音呈现出明显的电子化失真,听起来略显机械与不自然。更关键的是,用户需要在对话中主动喊出语音指令来启动功能,这一行为在真实社交场景中可能显得突兀甚至失礼。试想:你正与朋友在酒吧聊天,突然说一句"HeyMeta,开启对话聚焦",随即对方的声音在你耳中被"放大",这种中断式交互是否真的无缝?还是反而破坏了交流的自然流动?真正的价值或在无障碍领域尽管在普通用户中可能存在使用习惯门槛,但ConversationFocus的最大潜力,或许在于辅助听障人群。对于轻度听力受损或在特定环境(如老年聚会、机场候机厅)中沟通困难的用户而言,这种"可调节的听觉增强"功能可能带来实质性帮助。它让智能眼镜不再只是信息输出设备,而是成为感官补偿工具,真正体现科技的包容性价值。
在MetaConnect2025的密集发布之外,Meta宣布了一项针对运动用户的实用升级:其智能眼镜产品线(包括Ray-BanMeta、OakleyMeta系列及新款MetaRay-BanDisplayGlasses)将正式支持Garmin手表集成,并新增对Strava的深度兼容。这一更新让智能眼镜从"时尚+社交"设备,进一步延伸为全天候运动伴侣。实时语音查询:用"HeyMeta"掌握运动状态通过将Garmin设备与MetaAI账户绑定,用户现在可以在锻炼过程中直接向眼镜发问,获取实时健康与运动数据。例如:"HeyMeta,what'smyheartrate?""HeyMeta,howamIdoing?"系统会即时播报当前心率、配速、距离、海拔等关键指标,无需停下查看手表或手机。这种"语音优先"的交互方式,在跑步、骑行等双手不便操作的场景下尤为实用,真正实现信息的"无感获取"。Autocapture自动捕捉:关键时刻,一个不错过此次更新还带来一项名为Autocapture(自动捕获)的新功能。只需语音指令"HeyMeta,enableAutocapture",眼镜便会进入智能录制模式--当系统检测到你达到关键里程节点,或心率、速度、海拔显著提升时,将自动录制一段视频片段。这意味着,无论是冲刺五公里终点、爬升最后一段陡坡,还是突破个人最快配速,你的智能眼镜都能自动记录下这些高光时刻,并生成带有时间戳的精彩集锦,便于后续回顾或分享。Strava数据叠加:打造专业级运动Vlog对于希望制作高质量运动视频的用户,Meta还推出了Strava数据叠加功能。你可以选择将来自Garmin和Strava的运动数据--如心率曲线、实时速度、累计爬升、配速区间等--直接叠加在眼镜拍摄的视频画面上。用户可自定义显示哪些指标、字体大小与位置,甚至可以选择完全隐藏数据层。这一功能让普通的第一视角录像,瞬间升级为具备专业分析价值的训练日志或社交媒体内容,尤其适合健身博主、跑步爱好者和户外探险者。
在今日举行的MetaConnect开发者大会上,Meta正式发布了与依视路·陆逊梯卡(EssilorLuxottica)联合打造的下一代智能眼镜产品线,几乎完全印证了昨日的"意外泄露"。其中最受瞩目的,正是传闻已久的搭载单目光学显示屏的MetaRay-BanDisplayGlasses--这标志着Meta在消费级增强现实(AR)眼镜上的首次实质性突破。扎克伯格在主题演讲中展示了三款新基础型号,命名策略也迎来一次微妙调整:原本预期的"Ray-BanMetaGen3"并未出现,取而代之的是定位最高端的MetaRay-BanDisplayGlasses。这一命名变化突显了"显示功能"作为核心卖点的战略意图。其余两款则延续品牌合作路线:主打运动风格的OakleyMetaVanguard,以及迭代款Ray-BanMetaGen2。后者与今年7月发布的OakleyMetaHSTN共同构成更完整的产品矩阵,覆盖不同用户场景与审美偏好。799美元的AR尝试:一块单目屏,如何改变交互?新发布的MetaRay-BanDisplayGlasses定价799美元,硬件配置延续了前代优势:1200万像素摄像头、五麦克风阵列、双耳外放扬声器、语音控制、拍摄LED提示灯等一应俱全,并统一采用高通SnapdragonAR1Gen1芯片平台。真正划时代的升级,在于右眼集成的全彩单目微显示器。这块600×600像素、视场角达20°的屏幕,像素密度为42PPD,刷新率90Hz(内容更新30Hz),亮度范围30–5000尼特,支持UV感应自动调节显示强度。Meta强调其光学设计具备极低光泄漏(<2%),确保他人难以窥视你正在查看的内容,兼顾隐私与实用性。这意味着,用户终于可以在不掏出手机的情况下,私密地浏览信息、接收通知、甚至进行视频通话。你可以一边走路,一边通过镜片看到WhatsApp、Messenger或Instagram的消息,并直接语音或手势回复。更进一步,它还能实现第一人称视角的实时直播通话--对方能看到你眼中所见的世界。手势之外:sEMG神经腕带开启"无感交互"新维度如果说显示屏是"输出端"的进化,那么随眼镜一同亮相的MetaNeuralBand(神经腕带)则是输入方式的革命。这款基于表面肌电图(sEMG)技术的可穿戴设备,能捕捉前臂肌肉在手指和手部动作时产生的微弱电信号,实现无需视觉识别的精准手势控制。它支持全天佩戴,续航长达18小时,具备IPX7防水等级,并内置触觉反馈功能。具体交互方式包括:拇指轻扫:左右切换音乐捏合手指+手腕旋转:调节音量Meta正在开发的EMG手写识别功能,未来或可直接"空中写字"输入文本当视觉显示与sEMG手势结合,一系列新场景被解锁:导航时,镜片上可叠加步行路线与区域地图(目前为有限城市Beta测试);对话中,系统可提供实时字幕与外语翻译,近乎实现"无障碍沟通";拍照时,显示屏可作为取景器,支持3倍数码变焦,并允许直接预览、保存和分享照片与1080p视频。从处方支持到全球扩张:Meta的谨慎野心MetaRay-BanDisplayGlasses默认配备变色镜片,支持-4.00至+4.00的处方镜片适配(具体方案尚未详述),电池续航约为6小时混合使用,配合可折叠便携充电盒可延长至30小时,并支持20分钟快充50%。产品首发提供ShinyBlack与ShinySand两种配色,镜框有标准与大号可选,NeuralBand提供三种腕围尺寸。由于需要专业验配,Meta将采取线下优先策略,9月30日起仅在美国部分实体零售商发售,包括BestBuy、Lenscrafters、SunglassHut和Ray-Ban门店,Verizon门店也将陆续上架。国际市场的扩展计划已明确:加拿大、法国、意大利和英国将于2026年初推出,后续将逐步开放更多购买渠道。
在MetaConnect2025大会前夕,一则短暂上线后迅速被删除的非公开视频,揭开了Meta下一代智能眼镜的最终形态:这款搭载单目光学显示(HUD)并由sEMG肌电腕带控制的设备,正式定名为"MetaRay-BanDisplay"--雷朋品牌将成为其面向消费市场的重要背书。这一命名策略,标志着Meta与EssilorLuxottica战略合作的进一步深化,也意味着这款被长期传闻的"准AR"设备,正以更贴近大众消费电子产品的姿态,走向商业化落地。雷朋之名:从独立产品到品牌协同视频展示了Meta即将推出的完整智能眼镜产品线,包括:常规款Ray-BanMeta智能眼镜近期发布的OakleyMetaHSTN传闻中的OakleyMetaSphaera(带眼部防护与居中摄像头)搭载单目HUD的"MetaRay-BanDisplay"其中,"MetaRay-BanDisplay"是此次曝光的核心。尽管此前多家媒体(包括彭博社、TheVerge、TheInformation)已预测Meta将在2025年推出HUD眼镜,但使用雷朋品牌而非独立Meta品牌,仍出乎不少行业观察者的预料。去年,《TheInformation》曾报道称,EssilorLuxottica因眼镜镜腿需加厚以容纳显示模组而"犹豫不决",可能阻止该产品以Ray-Ban品牌面世。当时消息称,设备重量预计达70克,显著高于当前Ray-BanMeta眼镜的50克。然而,局势显然已发生变化。30亿欧元投资换来的品牌话语权转折点或许在于Meta对EssilorLuxottica的深度绑定。今年早些时候,Meta宣布向后者投资30亿欧元,获得其3%股权,并可能逐步增持至5%。这笔交易不仅强化了双方供应链与研发协同,更关键的是--Meta由此获得了对品牌授权更强的话语权。雷朋作为全球最具辨识度的时尚眼镜品牌之一,拥有庞大的线下零售网络(数千家门店)和成熟的消费认知。若Meta选择独立品牌推出HUD眼镜,将面临更高的市场教育成本与渠道建设门槛。而挂上"Ray-Ban"之名,则意味着设备可直接进入主流消费场景,实现更高效的用户触达与体验转化。此外,《金融时报》早在今年1月就披露,下一代Ray-BanMeta眼镜将"配备显示屏"。如今看来,这一计划已从传闻落地为产品命名。非AR,但更务实:HUD+sEMG的轻量化交互路径需要明确的是,"MetaRay-BanDisplay"并非真正意义上的增强现实(AR)设备,也远不如ProjectOrion原型那般激进。其HUD为固定式单目显示,仅右眼可见,功能聚焦于实用场景:MetaAI语音助手的视觉反馈步行导航指引消息通知与快捷回复视频中还展示了sEMG腕带的核心交互:用户可通过在桌面轻swipe手指,逐字母输入回复消息--无需物理键盘,也无需语音。这种"隐式输入"方式,延续了Meta对"自然交互"的探索,试图在隐私性与效率之间取得平衡。尽管技术规格尚属保守,但这种"轻AR"策略反而更具现实意义:在全彩波导、轻量化AR眼镜尚未成熟的当下,Meta选择以渐进式创新,先解决"信息提示"与"无感交互"两大刚需。Connect2025前夜:消费级混合现实的临界点随着Connect2025大会临近(主议程于太平洋时间周三17:00举行),Meta正试图向市场传递一个清晰信号:混合现实的消费化,不必从"完全体AR"开始。通过雷朋品牌降低用户心理门槛,通过sEMG腕带探索新型交互,通过HUD实现基础信息叠加--这一系列组合拳,构成了Meta在AR真正普及前的"过渡方案"。据彭博社MarkGurman透露,该设备起售价预计为800美元,定位高端智能穿戴市场。若产品体验与品牌协同得当,或将开启智能眼镜从"极客玩具"向"日常装备"转变的新阶段。
2025年9月15日,Snap正式推出SnapOS2.0--专为其第五代及即将发布的第六代SpectaclesAR眼镜打造的操作系统。这一更新虽未伴随硬件亮相,却清晰传递出一个信号:Snap正全力冲刺消费级AR市场。与Meta、Google等巨头选择从"智能眼镜"起步不同,Snap跳过过渡形态,直接押注轻量级AR设备。而SnapOS2.0的发布,正是为2026年即将上市的首款面向大众的Spectacles铺路。系统先行:四大功能升级,瞄准日常使用在第六代Spectacles硬件参数仍被保密的情况下,Snap选择通过系统更新释放战略意图。SnapOS2.0聚焦内容消费与交互体验,带来四项关键升级:全新浏览器:极简设计,提速降耗Snap对内置浏览器进行了全面重构,采用极简界面,优化页面加载速度与功耗表现。这意味着用户在户外使用时,能更流畅地浏览网页,延长续航。作为最基础也最高频的功能,网页体验的提升,是AR设备走向日常的第一步。Spotlight:手机内容空间化投射通过专属Lens"Spotlight",用户可将手机上的照片、视频或网页内容,以空间化方式投射到现实环境中,实现免持观看。这一功能强化了AR作为"第二屏"的潜力,适用于咖啡馆、通勤、家庭等轻社交场景。Gallery相册:手势操控,沉浸回看新GalleryLens支持手势滑动浏览Spectacles拍摄的视频,可缩放、收藏、一键分享至Snapchat。这不仅提升内容消费体验,也进一步闭环"拍摄-回看-分享"的社交链条。引入《SynthRiders》:首款重量级XR游戏登陆经典XR节奏游戏《SynthRiders》正式入驻Spectacles。玩家可在现实空间中击打音符、穿越轨道,同时保持对周围环境的感知。这种"混合现实"玩法兼顾沉浸感与安全性,是AR娱乐的典型应用场景。AI能力就位:翻译、问答、情境感知已集成过去数月,Snap已为Spectacles注入多项AI功能:实时文本翻译(如菜单、路牌);支持40种语言的语音翻译;AI"空间提示":用户可直接提问"这是什么?"、"附近有什么推荐?",系统结合视觉与位置信息作答。这些能力虽依赖云端或手机协同,但已构建出"现实增强助手"的雏形,目标是让眼镜真正成为日常生活的智能延伸。开发者生态开放:支持Gemini与ChatGPT自2025年6月起,开发者可通过LensStudioAPI将手机端SnapchatLenses移植至Spectacles。更关键的是,Snap已开放与GoogleGemini和OpenAIChatGPT的集成,支持构建基于大模型的AR应用。这意味着未来可能出现更多智能问答、情境推荐、实时信息叠加等场景,Snap正在构建一个轻量但开放的AR生态。消费级AR的"关键一战"目前,第五代Spectacles(2024款)仍主要面向开发者。而第六代产品将是Snap首款真正面向消费者的AR眼镜,尽管价格、发布时间尚未公布。SnapCEO埃文·斯皮格尔在近期公开信中称2026年为公司的"关键考验之年",并明确表示:Spectacles是Snap未来的核心。他认为,AR设备不仅能替代多个物理屏幕,其操作系统还将具备"上下文记忆",价值随使用时间累积。"这不仅是生存之战,更是要证明:一种以深化友谊、激发创造力为核心的科技路径,能在当下世界取得成功。"差异化路径:Snap抢跑,巨头试水值得注意的是,Meta、Google、Apple、三星等对手目前仍停留在"智能眼镜"阶段--主打音频、拍照与通知提醒。而Snap选择跳过过渡形态,直接切入轻AR,虽风险更高,但一旦成功,便可能抢占先机。
我们早已熟悉Meta的Ray-Ban系列、谷歌的野心计划,以及传闻中苹果正在打磨的智能眼镜原型。这些科技巨头手握最新芯片、AI模型与庞大的设备生态,天然具备定义市场的资本。但智能眼镜的版图,远不止巨头间的角力。在Meta的聚光灯之外,一批中小型公司正悄然推进自己的产品路线。它们或许没有顶级供应链资源,却以更快的迭代速度、更精准的场景切入,在消费级智能眼镜的"第二战场"中,撕开了一道口子。从无屏摄像眼镜,到抬头显示(HUD)设备,再到真正的增强现实(AR)产品,这场硬件竞赛正在多线并行。而中国初创企业,正在其中扮演越来越关键的角色。无屏眼镜:从Snap到EchoFrames的早期探索严格来说,Meta的Ray-BanMeta并非第一款带摄像头的智能眼镜。早在2014年,Facebook就曾推出过市场反响平平的Ray-BanStories;再往前追溯,2012年一家名为Pivothead的初创公司就发布了内置1080p摄像头的智能眼镜,镜头位于镜框中央。枢轴头(2012)真正让"看起来像普通眼镜"的产品走进大众视野的,是2013年由VergenceLabs推出的EpiphanyEyewear。这款产品外形接近日常墨镜,却能实时录制第一视角视频。一年后,Snapchat母公司Snap收购了VergenceLabs,并以此为基础推出了三款Spectacles系列摄像眼镜(2016–2019年),全部为无屏设计。EpiphanyEyewear(2013年)SnapSpectacles(2017年)Pivothead、Epiphany和Spectacles的共性在于:它们都只具备摄像功能,缺乏扬声器和本地计算能力,本质上是"会拍照的眼镜",而非交互式设备。直到2019年(限量内测)和2020年(正式发售),亚马逊推出EchoFrames,才首次将音频交互带入日常眼镜形态。EchoFrames内置扬声器和麦克风,支持播放音乐、有声书、播客,并可与Alexa语音助手深度联动。但它没有摄像头--这既是隐私考量,也暴露了功能取舍的难题。Meta的整合突破:从Stories到AI语音助手转折点出现在2021年。Meta与依视路陆逊梯卡(EssilorLuxottica)联合推出的Ray-BanStories,首次将摄像头、扬声器、麦克风三者整合进一副外观接近普通墨镜的设备中,实现了真正的"可穿戴交互"。而更大的飞跃发生在2023年Ray-BanMeta发布后不久:一次固件更新带来了语音驱动的多模态AI功能。用户只需说一句"HeyMeta,帮我识别这是什么植物",眼镜即可通过摄像头捕捉画面,调用AI模型实时分析并语音反馈。亚马逊EchoFrames(2021年)雷朋Stories(2021年)这一功能如今已成为几乎所有无屏智能眼镜的核心卖点。它标志着智能眼镜从"记录工具"向"认知辅助设备"的跃迁。目前,全球已有数十家中国初创企业推出Ray-BanMeta的"平替"产品,价格更低、功能相似,形成了庞大的"类Meta眼镜"生态。而在更前沿的HUD与AR领域,竞争格局同样激烈。以下是一些与Ray-BanMeta和OakleyMetaHSTN竞争的主要无显示智能眼镜:SolosAirGoV2AI模型:ChatGPT/Claude/Gemini/DeepSeek价格:300美元发布时间:2025年第四季度可用性:全球小米AI眼镜人工智能模型:小爱同学价格:约300美元发行日期:2025年7月供应情况:仅限中国(目前)HTCViveEagle人工智能模型:Gemini/ChatGPT价格:约550美元发行日期:2025年9月供应情况:仅限中国台湾MentraLive在无显示智能眼镜中,MentraLive独具特色,拥有开源操作系统和SDK,任何开发人员都可以自由轻松地为其开发应用程序。价格:300美元(预购价250美元)发行日期:2025年12月供应情况:仅限美国Waves相机眼镜Waves的主要营销"功能"是它缺少摄像头LED,因此人们不知道您何时在录制。价格:300-500美元发行日期:2026年可用性:全球JioFramesJio是印度最大的移动网络,据报道正在考虑在该国推出一款廉价的HorizonOS耳机。价格:待定发行:待定供应情况:仅限印度HUD眼镜:绿色文字的"现实叠加层"HUD(抬头显示)眼镜的核心,是在用户视野中叠加一层固定位置的信息层,如通知、导航、翻译或AI输出。这类信息通常通过波导技术投射,力求在不遮挡真实世界的情况下提供辅助。值得注意的是,本文所指的HUD眼镜,不包括XReal、Viture这类"虚拟显示器"眼镜。后者采用"鸟浴式"光学设计,镜片体积大、视野外扩明显,佩戴感更像头显,难以作为全天候日常眼镜使用。全彩双目显示Meta✅❌北焦 NorthFocals✅❌EvenG1❌✅BrilliantLabsHalo✅❌Rokid眼镜❌✅XRAIAR2❌✅INMOGO2❌✅Halliday眼镜❌❌亚马逊✅❌NorthFocals:被埋没的先驱早在2019年,加拿大公司North就推出了Focals--第一款真正意义上外观接近普通眼镜的消费级HUD产品,售价600美元。Focals采用单目光彩显示,图像仅投射至右眼,但色彩完整,支持基础通知与语音交互。北焦(2019)Focals在极客圈中拥有近乎"邪典"般的追随者,其设计理念远超时代。2020年,Google收购North,Focals2.0项目被取消。但其技术基因延续至今,体现在Google与三星在I/O2025上展示的单目HUD参考设计中。EvenG1:首款真·日常HUD眼镜中国初创公司EvenRealities(总部深圳,德国设子公司)今年初推出了G1,被业内视为首款真正适合全天佩戴的HUD眼镜。两种EvenG1风格。G1采用双目单色(绿色)microLED显示,分辨率为640×200,视场角25度,亮度约1000尼特。虽然只能显示绿色文字,但双目成像提升了沉浸感与阅读舒适度。它没有摄像头或扬声器,专注文本类场景:如实时字幕翻译、演讲提词、导航指引等。重量仅40克,售价600美元起,提供圆形与矩形两种镜框设计,外观几乎与普通眼镜无异。BrilliantLabsHalo:AI驱动的"低代码"眼镜新加坡初创公司BrilliantLabs已推出第三代产品Halo。其前两代Monocle与Frame分别以附加镜片和外显式单色HUD试水市场,而Halo则进一步集成。Halo采用单目光彩显示,模块位于右镜片上方,支持屈光度调节。配备骨传导扬声器、双麦克风,并搭载一个"低功耗光学传感器"--专为视觉AI模型设计,而非用于录像。开箱即用的AI助手Noa可进行语音交互,同时提供SDK,允许开发者通过蓝牙设备调用其传感器与显示功能。更特别的是,Halo支持"vibemode":用户只需描述需求,即可生成简单应用,无需编码。Halo重40克,预售价300美元,预计2025年第四季度发货。RokidGlasses与Halliday:绿色HUD的中国力量Rokid长期布局AR显示领域,近期推出首款外观接近普通眼镜的HUD产品。RokidGlasses采用双目单色(绿色)显示,售价600美元,预计2025年9月起出货。另一款来自HallidayGlasses的产品今年初限量发售,采用单目单色(绿色)显示,售价500美元,定位极客与开发者群体。亚马逊的"双线战略":消费者与物流场景并行据《TheInformation》本周报道,亚马逊也在研发单目HUD眼镜,并规划了两条产品线:一款面向消费者,另一款专为快递员设计。报道称,快递员用版本将更厚重,配备单色显示,计划2026年中量产约10万台;消费者版本则追求轻薄设计,采用全彩显示,预计2026年底或2027年初上市。若消息属实,这将是亚马逊在EchoFrames之后,对智能眼镜场景的又一次重大拓展,尤其在B端物流效率提升方面潜力巨大。真·AR眼镜:中国先行,Snap押注未来在西方市场,目前尚无真正意义上的消费级AR眼镜--即外观接近普通眼镜、能将虚拟物体稳定锚定在现实空间的产品。尽管Xreal、Viture等品牌提供6自由度(6DoF)追踪的虚拟显示器,但其"鸟浴式"光学结构导致设备笨重、视野受限,无法作为日常佩戴的眼镜使用。RayNeoX3Pro:窄视场的中国尝试在中国,TCL支持的初创公司RayNeo已推出TrueAR眼镜近一年。其X2型号虽技术上支持空间定位,但25度的极窄视场与糟糕的位置追踪体验,使其难以被视为成熟AR产品。其继任者X3Pro于今年5月在中国上市,售价约1300美元,重量约80克。视场角未改善,但据称位置追踪能力有所提升。SnapSpecs(2026):十年一剑的AR野心Snap在2025年6月宣布,将于2026年推出完全独立的消费级AR眼镜--Specs。这是其十年智能眼镜布局的集大成之作。此前,Snap在2016–2019年推出三款非AR摄像眼镜;2021年起发布两代AR眼镜开发套件Spectacles。第一代视场角仅26度,续航30分钟,重134克;第二代视场角提升至46度,续航45分钟,但重量增至226克,形态更接近头显。两代开发套件均支持手势追踪,运行Snap自研的轻量级操作系统SnapOS,应用生态基于LensStudio开发的"Lenses"。SnapCEOEvanSpiegel承诺,2026年的Specs产品将实现"更小的体积、更轻的重量、更强的功能",同时兼容所有现有Lenses。若能兑现,这或将成为首款真正具备消费潜力的AR眼镜。
科技巨头新一轮的可穿戴设备竞赛,正悄然从手腕移向鼻梁。据《TheInformation》援引两名知情人士报道,亚马逊正在秘密开发一款代号为"Jayhawk"的消费级智能眼镜,计划于2026年底或2027年初上市,直接对标Meta即将推出的带显示功能智能眼镜"Hypernova"。这场对决,标志着语音助手与AR/VR平台之争进入新战场。"Jayhawk":亚马逊的全功能智能眼镜野心与目前仅支持音频交互的EchoFrames不同,"Jayhawk"将是一次全面升级,配备:麦克风与扬声器(支持通话与语音控制);摄像头(用于拍照与视频);单目彩色显示屏--首次让亚马逊眼镜具备视觉信息输出能力。这意味着用户或将能在视野中直接查看通知、导航、Alexa响应内容,甚至观看简短视频。尽管尚未确认是否基于空间计算的真正AR,但其功能已远超当前EchoFrames系列。目前尚不清楚"Jayhawk"是否会归入现有的EchoFrames产品线。自2019年推出以来,该系列历经三代更新(最新款发布于2023年底),始终聚焦音频与语音交互,从未加入摄像头或显示屏。而"Jayhawk"的出现,预示亚马逊正试图打破这一边界。双线并行:消费者版之外,还有物流专用眼镜"Amelia"亚马逊并未将所有筹码押在消费市场。报道称,公司同时在开发另一款面向配送司机的智能眼镜,代号"Amelia"。这款设备更注重实用性而非设计美感:外形更笨重;主要功能是通过显示系统为司机提供分拣与派送指引;计划于2026年第二季度rollout,首批生产10万台。若成功落地,这将成为亚马逊提升物流效率的新工具--类似DHL等企业早已在仓库中使用智能眼镜优化拣货流程。第三代EchoFrames|图片由亚马逊提供对决Meta:"Hypernova"已近量产与此同时,Meta的脚步更快。据供应链分析师郭明錤与彭博社MarkGurman消息,其代号"Hypernova"(或命名"Celeste")的智能眼镜已接近量产,预计售价约800美元。虽然Meta同样称其为"增强现实"设备,但从描述来看,它更符合高端智能眼镜定义:提供抬头信息显示,可能集成AI助手与轻量级视觉交互,而非复杂的空间锚定3D内容。相比之下,亚马逊虽起步稍晚,但凭借Alexa生态、电商物流场景与内容资源,具备差异化优势。智能眼镜的临界点到了吗?值得注意的是,术语需厘清:AR眼镜:能将3D数字内容稳定叠加于现实环境;智能眼镜:主要提供信息提示、语音交互与拍摄功能,即使有屏幕,也多为静态或2D内容。目前Meta与亚马逊的新品仍属后者。但它们的共同出现,表明一个趋势:下一代人机交互入口的争夺,已从智能手机延伸至"常开、常在线"的视觉化穿戴设备。亚马逊能否借"Jayhawk"后来居上?答案或许就在2027年前揭晓。
继Ray-BanMeta系列智能眼镜在全球热销后,Meta正加速将其可穿戴设备战略推向深水区。公司近日正式公布年度开发者大会MetaConnect2025的详细日程:活动将于当地时间9月17日至18日举行,智能眼镜将成为绝对主角。这场大会不仅是Meta展示技术野心的舞台,更可能是其推动"情境计算"(ContextualComputing)落地的关键节点--在AI与元宇宙长期愿景之下,眼镜,正被Meta视为继手机之后的下一代个人计算平台。扎克伯格领衔:AI+眼镜,构建"主动式"智能生态9月17日,Meta首席执行官马克·扎克伯格(MarkZuckerberg)将发表主题演讲,重点阐述人工智能与元宇宙的融合路径,并深入介绍智能眼镜在其中的核心角色。外界普遍预期,演讲将聚焦于"情境人工智能"(ContextualAI)的技术进展--一种能够理解用户所处环境、行为意图,并主动提供相关信息的AI系统。想象这样的场景:当你准备出门时,眼镜提醒你"钥匙未带";走进超市,自动推荐购物清单中的缺货商品;在陌生城市步行时,实时标注街道信息并提示最佳路线。这些功能,正是Meta所描绘的"情境智能"未来图景。开发者日:计算的未来,始于一副眼镜次日(9月18日),大会将转向开发者群体,举行一场以"计算的未来"为主题的专题演讲与互动环节。届时,Meta将向开发者展示如何基于搭载情境AI的眼镜构建应用生态,包括语音交互、环境感知、空间计算与实时信息叠加等能力。这不仅是一次技术预览,更是Meta向全球开发者发出的"生态召集令"--它希望在硬件普及前,先建立起围绕智能眼镜的软件与服务生态。产品矩阵扩张:从Ray-Ban到Oakley,覆盖多元用户场景今年8月,Meta已联合运动潮流品牌Oakley推出新款智能眼镜OakleyMetaHSTN,标志着其产品线从时尚生活场景向运动户外领域延伸。该眼镜支持3K视频录制、集成摄像头与语音AI助手,续航长达8小时,延续了Ray-BanMeta系列"隐形科技"的设计理念。而据海外媒体报道,一款代号为"Hypernova"的新一代智能眼镜正在路上。该产品据传将由Meta与眼镜巨头依视路陆逊梯卡(EssilorLuxottica)联合推出,预计于2025年底亮相。传闻称,Hypernova将配备平视显示器(HUD)与神经腕带(NeuralWristband),实现更高级的输入控制,售价可能超过1000美元。尽管这些信息尚未得到Meta官方证实,但结合首席技术官安德鲁·博斯沃思(AndrewBosworth)近期表态--"公司将发布有关可穿戴设备的重大公告"--外界普遍认为,Meta将在Connect大会上揭晓其智能眼镜战略的下一步关键布局。
Meta正在悄然重塑其智能眼镜的定位。最新消息显示,搭载MetaAI的Ray-Ban和Oakley智能眼镜现已支持连接并操作用户的GoogleCalendar与OutlookCalendar,标志着这款"听得见的AI眼镜"正从"语音助手"向"个人生活中枢"迈出关键一步。通过简单的语音指令,用户即可完成日程查询、行程摘要生成乃至事件创建等操作,真正实现"动口不动手"的无缝体验。语音操控日程:你的AI生活管家上线要启用该功能,用户需在MetaAI手机应用的"AppConnections"(应用连接)中绑定日历账户。目前该功能正在逐步推送,部分用户可能还需等待。一旦连接成功,MetaAI便能通过自然语言理解,执行以下三类核心操作:1.精准查询日程"嘿Meta,我明天的第一个会议是什么时间?""嘿Meta,我的医生预约是什么时候?""嘿Meta,今晚聚会的地址是什么?"2.全局行程概览"嘿Meta,我明天的日程是怎么安排的?""嘿Meta,我这个周末有什么安排?"3.语音创建事件"嘿Meta,明天上午10点加个咖啡休息时间。""嘿Meta,在我的Google日历上下午2点创建一个事件,出去散步40分钟。"此外,用户还可设置日历提醒,AI将在事件临近时主动语音播报,确保重要安排不再遗漏。这一集成不仅提升了效率,更体现了Meta将智能眼镜打造为"全天候情境感知设备"的野心--无论你是在通勤路上、会议间隙,还是散步途中,都能以最自然的方式与数字生活互动。隐私声明与数据使用边界Meta强调,不会使用用户链接的日历数据来训练其AI模型,这在当前AI隐私争议频发的背景下是一大明确承诺。但需注意:若用户在隐私设置中启用了"VoiceStorage"(语音存储),Meta外包的审查人员可能收听语音请求录音,目的是用于改进MetaAI的识别与响应能力。固件升级同步推进:捕捉更快、提醒更智能此次更新伴随最新的眼镜固件升级,带来多项实用性改进:提升媒体捕捉速度:Meta优化了拍照/录像的延迟,从触发到实际捕捉的时间缩短,减少错过瞬间的遗憾。Audible服务全球扩展:语音控制亚马逊有声书服务Audible的功能,现已覆盖所有英语国家,不再限于美国。位置感知提醒升级:新增"创建提醒时记录地理位置"功能。例如,当你在停车场说"提醒我车停在这里",AI将记住该位置,后续可通过语音查询找回。Connect2025倒计时:带显示屏的"Hypernova"即将登场?Meta透露,更多智能眼镜相关消息将在三周后的Connect2025大会上公布。外界普遍预期,Meta首款配备显示屏的智能眼镜"Hypernova"将正式亮相,并可能与长期研发的sEMG肌电腕带一同发布。这一组合或将开启"无触摸交互"的新阶段:用户通过眼镜感知环境,腕带捕捉微手势,AI语音协调执行,真正实现"隐形计算"。从VR头显到智能眼镜:Meta的"通用计算平台"战略此次日历功能的落地,距离Meta在Quest头显的HorizonOS中上线原生日历应用尚不足一年。这一连串动作清晰地勾勒出Meta的战略路径:将VR头显与AR眼镜统一为"融合型个人计算平台",深度嵌入用户的数字生活流。当眼镜能读取你的日程、记住你的位置、播放你的有声书,并在关键时刻提醒你"会议即将开始"--它就不再只是"能录音的墨镜",而是你与数字世界之间的无形接口。未来已来,只是尚未均等分布。而Meta,正试图让它分布得更广。
昨日,中国AR初创企业Rokid在Kickstarter平台发起新品众筹,正式将旗下智能眼镜RokidGlasses推向全球市场。这款此前已在中国上市、采用单色绿色光波导显示的智能眼镜,仅用24小时便突破50万美元,展现出市场对"超越音频体验"的智能眼镜的强烈渴求。相较于Meta与雷朋、Oakley合作推出的仅支持音频功能的智能眼镜,RokidGlasses显然走得更远--它搭载了真正的抬头显示(HUD)系统,让信息真正"浮现在眼前"。不是AR,胜似AR:绿色光波导的实用主义突围尽管官方宣传中称其为"AI与AR眼镜",并标榜"全球最轻全功能AI+AR眼镜"(重仅49克),但严格来说,RokidGlasses并未实现空间锚定的增强现实(AR)功能。它更准确的定位是:具备AR式显示能力的智能眼镜。其核心亮点在于双光波导模组,可投射单色绿色图像,亮度高达1500尼特,确保户外强光下依然清晰可见。用户可在视野中查看:实时导航指引提词器模式支持89种语言的实时文本与语音翻译(其中5种支持离线翻译,基于Rokid自研大模型)这一功能组合,精准切中了通勤、演讲、跨国交流等高频实用场景,避开了复杂AR交互的技术瓶颈,走出一条"轻AR"实用主义路线。配置拉满,价格破局:高性价比撬动市场基础档定价479美元(原价599美元,享20%早鸟优惠),RokidGlasses配备了不输高端竞品的硬件:主控芯片:高通SnapdragonAR1协处理器:NXPRT600显示方案:双Micro-LED光波导电池系统:内置210mAh电池,支持8–10小时混合使用,2小时常显模式;搭配3000mAh充电盒(部分档位附赠,或作为百万美元众筹目标达成的奖励)此外,眼镜支持磁吸式可更换镜框,方便用户加装处方镜片,519美元档位即包含此配件,极大提升了日常佩戴的实用性。全球格局生变:Rokid抢跑,科技巨头何在?值得注意的是,Rokid可能是目前首个面向消费者市场、大规模推广带显示屏智能眼镜的主流AR品牌。而其他科技巨头虽有布局,但尚未落地:谷歌:正与WarbyParker、GentleMonster等合作开发AndroidXR眼镜,但发布时间未定;Meta:传闻将推出带显示屏版本的智能眼镜,延续与EssilorLuxottica的合作;苹果:长期传闻在研智能眼镜,但是否带屏仍无明确信号。Rokid此次通过Kickstarter抢先进入欧美市场,出货时间定于2025年11月,为后续竞争者留下了窗口期。而接下来的9月尤为关键--MetaConnect(9月17日)与传闻中的三星Unpacked活动(9月29日)或将释放更多行业信号。
距离MetaConnect2025不到一个月,传闻中的Hypernova智能眼镜终于呼之欲出:售价约800美元,仅在右镜片集成单目显示(monoculardisplay)。消息一出,质疑声四起--"只有一只眼能看到信息?这不反人类吗?"但如果你了解过去十年的可穿戴设备演进,就会发现:这不是倒退,而是一次精准的"克制"。更关键的是--谷歌也这么干。从GoogleGlass到AndroidXR:十年坚持"单眼"2013年,GoogleGlass横空出世,它的显示模组只在右眼上方。尽管产品最终失败,但其"单目显示"的设计逻辑,却被谷歌延续至今。2025年I/O大会上,谷歌展示的AndroidXR参考设计眼镜,依然只有一个微型显示屏。这绝非技术落后,而是深思熟虑的结果。正如MetaCTO安德鲁·博斯沃思(AndrewBosworth)在AMA中所言:"单目眼镜更便宜、更轻、结构更简单--你不需要处理双眼视差、瞳距适配和立体对齐问题。"换言之:每增加一只眼睛的显示,成本不止翻倍,复杂度更是指数级上升。为什么"双眼"这么贵?从工程角度看,双目AR眼镜的挑战远超想象:项目单目眼镜双目眼镜显示模组1套2套(+同步)光学对齐无需双眼匹配需精确匹配瞳距(IPD)视差处理无需避免"双眼冲突"(binocularrivalry)电池与功耗低高(双倍显示+双摄像头)结构厚度可接近普通眼镜需加厚镜腿以容纳更多元件Meta内部的终极原型Orion,正是双目AR的极致代表--搭载碳化硅光波导、全息显示、眼动追踪,但代价是:售价预估1万美元,镜框厚重如"科技盔甲"。而Hypernova若砍掉一只眼睛的显示,不仅能将成本控制在800美元以内,还能让外形更接近"正常眼镜",提升日常佩戴意愿。"一只眼"的真实体验:真的会"脑裂"吗?最大争议在于"双眼竞争"(binocularrivalry)--一只眼看到虚拟信息,另一只眼看到真实世界,大脑如何协调?实际体验表明:人类视觉系统比想象中更"能忍"。虚拟信息通常以小区域悬浮文本或图标形式出现(如通知、导航箭头),并不覆盖整个视野;大脑会自动将这类信息"融合"为"辅助感知",类似我们看仪表盘或手机导航;多数用户在几分钟内即可适应,尤其当信息设计遵循"低侵入性"原则时。相比之下,双目AR虽沉浸感更强,但一旦校准偏差,反而更容易引发眩晕、眼疲劳甚至头痛。Meta的"分步走"战略:先普及,再沉浸Hypernova的定位非常清晰:不是Orion的廉价版,而是Ray-BanMeta的"AIPro"升级款。它要解决的不是"完全体AR",而是:如何让AI助手真正随身化;如何让信息提示无感化;如何让普通人愿意天天戴着出门。在这个目标下,单目显示是现阶段最优解--它平衡了成本、重量、续航、外观与功能性。而Orion这样的双目AR设备,则留给未来:当光波导成本下降、电池密度提升、AI理解能力更强时,再推向市场。
我们都被"革命性技术"欺骗过太多次又一个号称能"彻底提升生产力"的办公技术登场了--伴随着对简化流程、消除低效的华丽承诺,却往往在现实中让我们沦为被通知轰炸、疲于多任务切换的"数字僵尸"。这种循环令人疲惫:新工具来临时锣鼓喧天,结果只是再添三款要管理的应用、五种要忽略的提醒。所以,当我说智能眼镜中的被动AI或许真的不一样时,我完全理解你为何会翻白眼,嘀咕一句:"技术厂商骗我一次,是他们的错;骗我十七次,就是我这个乐观科技记者的错了。"但如果你是一位厌倦了看着员工在17个浏览器标签页和3个聊天窗口间疯狂切换、同时假装认真参加Zoom会议的企业领导者,那么这一次,或许真的能打破我们被困已久的"生产力剧场"怪圈。讽刺的是,解决技术过载的方案,恰恰是更多技术。但请耐心听我说完--这一次,真的可能不同。主动交互的疲惫:我们正在被"注意力经济"榨干走进任何一间现代办公室,你都能看到生产力技术的悖论:员工在多块屏幕间切换,操作数十个应用,回应无穷无尽的通知--所有这一切,都是为了"专注工作"。"未来的工作方式,难道就是靠语音不断提问,让AI像助手一样四处张望说'嘿,你钥匙落这儿了'?"--KirinSinha,IllumixCEO兼创始人这正标志着人机交互模式的根本转变:从"我们命令技术",转向"AI观察、理解情境,并在需要时主动提供帮助"。尽管当前智能眼镜仍面临采用障碍,但被动AI的引入恰恰解决了企业部署的核心痛点:它无需用户学习全新交互方式,而是融入已有的行为模式。环境智能的科学:像"余光"一样工作的AI传统生产力工具消耗的是认知科学家所说的"执行注意力"--即我们主动集中精神的有限资源。每一次查看手机、打开应用、回复通知,都在消耗这种能量。而被动AI的运作方式截然不同:它像我们的周边视觉,在背景中处理信息,不占用主动注意力。配备情境感知的智能眼镜能:监测你的环境理解你正在做什么在最恰当的时机,浮现最相关的信息这不是"搜索信息",而是"信息主动出现"。情境计算革命:AI如何真正"懂你"真正的突破不在于更小的屏幕或更长的电池,而在于"情境计算"(ContextualComputing)--结合计算机视觉、空间感知与多模态AI,理解你"看什么"以及"为什么重要"。我们此前分析的2026年XR拐点正在逼近:AI能力与硬件进步的融合,正催生真正的突破性应用,而非渐进式改进。真实工作场景中的变革1.制造与现场服务过去,技术人员需查阅手册或平板电脑。现在,智能眼镜通过视觉识别设备,直接在视野中叠加:维修数据安全警告操作指引案例:某某工程师走近一台故障工业打印机,眼镜自动识别型号,显示维修历史,并高亮最可能出问题的部件--全程无需她主动查询。结果:消除任务切换的认知负担,提供比传统界面更及时、更相关的支持。2.医疗与患者护理医护人员面临严峻的注意力管理挑战。被动AI可在关键时刻浮现:药物过敏信息最新检测结果操作流程提醒案例:某某医生进入病房,眼镜通过安全生物识别确认患者身份,显示关键生命体征趋势与用药时间表,让他在保持眼神交流的同时掌握信息。结果:减少医疗错误,同时维护医患间的人性化连接。3.培训与技能发展传统培训需脱离实际工作。被动AI实现"即时学习":新员工组装产品时,视野中浮现操作技巧、质检节点、安全提示仅在AI检测到相关任务时触发结果:加速技能掌握,大幅降低培训对工作的干扰。隐私悖论:如何在"无所不知"中建立信任?最强大的被动AI系统需要全面的环境感知--它要"看到你所见","理解你所做",甚至访问敏感信息。这带来了前所未有的隐私挑战,必须主动应对。1.数据最小化与边缘计算领先方案通过架构设计而非仅靠政策保护隐私:视觉信息在设备本地处理,不上传云端眼镜可识别"你在看季度营收表",但不传输表格内容本身优势:既保护隐私,又消除延迟,让辅助更自然流畅。2.用户授权与控制机制成功部署的关键是赋予用户细粒度控制权:"专注模式":在敏感对话中关闭环境感知"学习模式":在培训期增强情境识别透明化:让用户清楚AI如何工作、处理哪些数据洞察:透明度比限制更能建立信任。了解原理的员工更愿意接受其生产力价值。跨越采用鸿沟:如何让用户"不学而用"?1.无形的入职挑战被动AI的成功,恰恰在于"用户几乎察觉不到它"。这带来了独特难题:如何训练人们使用一个"设计成无意识"的技术?解决方案:渐进式引入初期仅提供基础情境信息随用户适应,逐步扩展功能这直接回应了此前对智能眼镜采用障碍的分析:让技术更"隐形",而非更"丰富",反而更容易被接受。2.文化转型管理被动AI不仅是技术部署,更是文化适应。企业需帮助员工建立与技术的"增强能力"关系,而非"工具使用"关系。变革策略包括:演示AI如何减轻认知负荷,而非增加效率压力用"工作质量"而非"效率指标"衡量成功环境智能的竞争优势:超越传统生产力指标已部署被动AI的企业报告了传统指标难以衡量的质变:员工感觉在会议中更"在场"信息管理压力显著降低处理复杂任务时信心更强这些优势会随时间复利增长:认知负荷降低→能挑战更复杂问题注意力更集中→创新与深度协作能力提升结果:可持续的生产力提升,而非短暂的效率跃升。2026时间线:主流采用即将到来技术成熟度与市场条件的交汇预示:未来两年内,被动AI将从实验性部署迈向主流采用。随着硬件改进(重量、续航、显示)与软件平台成熟,企业落地的障碍正迅速消退。这与行业对XR技术在职场真正整合的预测完全一致。思考:人机协作的未来最令人着迷的是,被动AI标志着人机关系的根本进化:过去几十年,我们不断适应技术--学快捷键、记菜单、管通知。而被动AI逆转了这一动态:AI开始适应人类的工作流。这不仅是效率提升,更是对人类潜力的解放:吸引追求低压力、高专注环境的人才减少抑制创新的认知开销证明技术可增强人类,而非仅自动化任务结语:不是"是否",而是"何时"问题已不再是"被动AI能否改变生产力"--早期部署已证明其价值。真正的问题是:你的组织,是引领这场变革,还是在"环境智能"成为知识工作的默认标准时,才匆忙追赶?
史上最强Meta眼镜登场:终于有"屏"了Meta即将推出其迄今为止最雄心勃勃的智能眼镜--Hypernova。这款定于9月17日在MetaConnect大会上正式发布的设备,最核心的突破在于:首次搭载了真正的显示系统。与目前热销但仅依赖音频反馈的Ray-BanMeta系列不同,Hypernova在右镜片下方嵌入了一块微型显示屏,可直接向用户呈现通知、导航、照片以及与MetaAI助手的交互内容。这意味着,用户终于能在视野中"看见"信息,而不再需要"听"信息。这一变化,标志着Meta从"智能音频眼镜"正式迈入"视觉增强型可穿戴设备"的新阶段。手腕控制、定制系统:交互方式全面革新Hypernova的交互方式也迎来重大升级。它将配备一条神经腕带(neuralwristband),通过读取用户前臂的肌肉微动,实现对界面的精准控制。用户只需做出轻微的捏合、滑动等手势,即可完成操作,无需在公共场合大声说话或频繁抬手。设备运行定制版Android系统,并通过Meta的View应用与智能手机连接,支持通话、音乐播放、消息提醒等基础功能。相比Ray-BanMeta的封闭式体验,Hypernova更像一个可扩展的轻量级计算平台。800美元定价策略:牺牲利润,换取市场Hypernova的售价定为800美元,虽远高于Ray-BanMeta的299-380美元区间,但相比此前市场预测的1000-1400美元已大幅下调。Meta选择主动压缩利润空间,以降低用户门槛,加速市场渗透。这一策略表明,Meta不仅瞄准消费者市场,更意图在企业级AR应用领域抢占先机。当前,智能眼镜已在多个行业验证其价值:亚马逊在仓库中使用Vuzix眼镜,实现远程专家"第一视角"设备诊断;宝马慕尼黑工厂工人佩戴智能眼镜后,库存识别速度提升22%,错误率下降33%;DHL等物流企业部署"视觉拣选"系统,结合语音与条码扫描,显著提升作业效率。IDC可穿戴设备负责人FrederickStanbrell指出:"我们可能正见证扎克伯格设想中'取代手机'的第一代设备。"消费者功能亮眼,但企业才是"现金牛"对普通用户而言,Hypernova的吸引力在于"无感交互":走路时查看导航、无需掏手机读消息、用更高质量的摄像头拍照(Meta称其成像能力可媲美iPhone13)。但真正能支撑其高定价的,是企业市场的效率红利。Vuzix目前已在全球部署超500个工业项目,涵盖维修、巡检、物流等场景。工人通常在10-15分钟内即可上手,并可全天舒适佩戴。不过,市场挑战依然存在:数据安全是企业部署的最大顾虑,如何限制摄像头权限、保护客户隐私,仍需严格策略。此外,当前设备尚缺乏真正的空间感知与视觉识别能力,而这正是MetaAI可能补足的关键拼图。2025年市场爆发,Hypernova是试金石全球智能眼镜市场去年规模近20亿美元,预计2030年将达80亿美元。2025年上半年,出货量同比激增110%,Meta占据超75%市场份额,已成行业主导者。VDCResearch副总裁DavidKrebs评价:"行业兴趣浓厚,实验广泛,但技术、用户习惯和应用场景仍有诸多未解之题。"Hypernova的成败,将直接决定Meta能否将智能眼镜从"新奇配件"转变为"生产力工具"。公司已在研发双镜片显示的第二代产品,目标2027年推出。但眼下,它必须先说服用户:愿意为眼前漂浮的数据,支付800美元的溢价。核心升级对比(Hypernovavs.Ray-BanMeta):显示系统:集成微型显示屏vs.仅音频反馈交互方式:神经腕带手势控制vs.触控/语音操作系统:定制Android+应用生态vs.封闭系统摄像头:升级影像系统,对标iPhone13价格:800美元vs.299-380美元
续航与画质双升级,Meta智能眼镜再进一步继Ray-BanMeta智能眼镜成功试水消费级AI硬件后,Meta再次携手全球眼镜巨头EssilorLuxottica,推出第二条产品线--OakleyMetaHSTN。这款新眼镜已于近日开启常规版本预售,并将于8月26日(下周二)正式发货。与Ray-BanMeta相比,OakleyMetaHSTN定位略高,核心升级集中在续航与影像能力:在典型使用场景下,电池续航可达8小时,是Ray-BanMeta(4小时)的两倍;视频拍摄能力也从1080p提升至3K分辨率,画质更清晰,细节更丰富。这一代际提升,标志着Meta在"全天候可穿戴AI助手"道路上迈出关键一步。对于用户而言,更长的续航意味着更少的充电焦虑,更适用于长时间户外活动、运动记录或工作场景。功能全面看齐Ray-BanMeta:AI眼镜的"能力清单"已成型尽管外观设计源自Oakley经典的HSTN运动风格,但其功能架构与Ray-BanMeta保持高度一致:无屏幕设计,集成摄像头、麦克风与扬声器,主打"隐形智能"。用户可通过语音或触控实现以下操作:拍摄照片与视频播放音乐、播客、有声书接打电话在WhatsApp与Messenger视频通话中共享第一视角画面实时语音翻译扫描二维码唤醒MetaAI--这款基于大语言模型(LLM)的助手可通过摄像头"看见"你眼前的物体,并回答相关问题(例如:"这是什么花?"、"这个标志什么意思?")接收并朗读部分手机通知此外,眼镜具备IPX4级防水,可抵御日常泼溅,但不支持水下使用。为保障隐私,镜腿前端设有LED指示灯,只要摄像头启用(无论是拍摄还是MetaAI视觉识别),灯即亮起,提醒周围人正在记录。六款配色上市,价格阶梯清晰,全球化布局加速今年7月,Meta与Oakley曾限量发售一款金色24K偏光镜片特别版,售价500美元,主打收藏与高端市场。如今,常规版本正式开放预售,起售价为400美元,覆盖美国、加拿大、英国、德国、法国、澳大利亚等15个主要市场。常规款提供六种镜框与镜片组合,价格根据技术含量分层:$400档:WarmGrey+RubyPRIZM镜片,Black+Clear镜片$450档:BrownSmoke+DeepWaterPRIZM偏光镜片,Black+BlackPRIZM偏光镜片$480档:含变色镜片(Transitions)的高端型号,可在强光下自动变暗其中,PRIZM镜片为Oakley核心技术,旨在增强色彩对比度与视觉清晰度,特别适合户外运动场景。而变色镜片则进一步提升了全天候适用性。Meta表示,该产品后续还将登陆墨西哥、印度和阿联酋,全球化扩张步伐明显加快。背后是Meta与眼镜巨头的深度绑定Ray-Ban与Oakley同属全球眼镜巨头EssilorLuxottica旗下品牌。去年,Meta与该公司达成协议,将合作延续至"下一个十年";今年,Meta更通过30亿欧元战略投资,获得EssilorLuxottica3%的股权,双方关系从"品牌合作"升级为"资本联盟"。此举不仅确保了Meta在光学设计、制造工艺与全球分销渠道上的强大支持,也释放出明确信号:AI眼镜不再是概念产品,而是Meta长期战略的核心硬件入口。随着OakleyMetaHSTN的推出,Meta正在构建一个覆盖时尚(Ray-Ban)与运动(Oakley)两大场景的智能眼镜矩阵。在AI能力、续航、画质、隐私设计与品牌协同上,这套组合拳已展现出成熟的产品思维。下一步,如何在更多区域市场(尤其是亚太)推动本地化适配与AI服务落地,将成为其全球普及的关键。
VR52网成立于2015年,平台提供VR头显、AR眼镜、配件外设、厂商、测评、行业资讯、游戏与应用、展会活动等。