在CES2026期间,Google宣布与AR眼镜厂商XREAL达成一项多年期战略合作延期,正式将XREAL定位为AndroidXR生态系统的"核心硬件合作伙伴"。双方将共同推动AndroidXR平台在光学透视设备上的落地。作为合作的核心成果,XREAL即将推出的ProjectAuraAR眼镜将成为全球首款运行AndroidXR系统的光学透视AR设备,预计将于2026年内正式上市。轻量化设计+分体式计算:兼顾性能与佩戴舒适性XREALAura采用创新的分体式架构:眼镜本体:集成70°超大视场角的光学透视显示模组,并内置X1S自研芯片,负责传感器融合与低延迟渲染;外置计算单元:搭载高通SnapdragonXR2+Gen2芯片,提供强大算力,支持6DoF空间定位、手势识别、眼动追踪,并深度集成GoogleGemini大模型,实现情境感知与智能交互。得益于将电池与主处理器移至外部模块,Aura眼镜本体极为轻巧,佩戴体验接近普通太阳镜。该计算单元可轻松放入口袋,外形酷似智能手机,但整个正面是一块大型触控板--用户既可通过类鼠标操作精准控制界面,也可结合手势追踪实现无接触交互。首款AndroidXR光学透视设备,定义下一代空间计算入口Google与XREAL在联合声明中强调,此次合作将"把XREAL的长期硬件路线图与AndroidXR平台深度对齐"。这意味着未来XREAL的产品将优先适配AndroidXR的新特性,包括空间感知、多设备协同、AI代理等能力。作为首款搭载AndroidXR的光学透视眼镜,Aura不仅是硬件突破,更是Google构建"开放、跨设备、AI驱动"的空间计算生态的关键一环。同步拓展游戏场景:携手华硕ROG推出240Hz高刷AR眼镜值得注意的是,在CES2026上,XREAL还宣布与华硕ROG合作开发一款面向传统PC/主机游戏玩家的AR眼镜。该设备主打240Hz超高刷新率,旨在为《CS2》《Valorant》等竞技游戏提供低延迟、高流畅度的沉浸式大屏体验,进一步拓展AR在娱乐领域的边界。尽管ProjectAura的具体发售日期尚未公布,但Google表示"今年晚些时候将披露更多细节"。随着AndroidXR生态加速成型,XREAL正从消费级AR显示器厂商,转型为下一代空间计算硬件的核心推动者。
在CES2026(美国拉斯维加斯)期间,光场技术公司PetaRayInc.宣布与全球Fortune500企业、顶级代工制造商广达电脑达成战略合作,共同推出一款已具备量产能力的AR头戴式设备(HMD)。该设备首次实现"真正任意焦深",标志着AR显示技术迈入自然视觉新阶段。突破性技术:LiFiD光场引擎,还原真实光线传播该HMD的核心是PetaRay自主研发的LiFiD专利技术。不同于传统AR设备仅在一个固定焦平面显示虚拟图像,LiFiD通过重建物理世界中的真实光线路径,使虚拟内容能在任意距离(从几厘米到无限远)上呈现正确的聚焦深度。这意味着:当用户注视近处的手部操作时,虚拟工具会清晰聚焦于手掌;当视线转向远处的设备或建筑时,虚拟标注也会同步对焦于远端物体。彻底消除VAC,提升长时间佩戴舒适度传统AR/VR设备普遍存在"辐辏-调节冲突"--即双眼虽聚焦于虚拟图像位置,但眼球晶状体却被迫对焦在固定屏幕平面上,导致视觉疲劳、头晕甚至恶心。PetaRay表示,其LiFiD技术通过精确匹配数字内容与物理世界的焦深,从根本上消除了VAC问题,带来四大核心体验升级:可感知的真实深度连续、自然的焦点切换长时间佩戴无疲劳空间场景的逼真清晰度广达赋能:从原型到量产的一站式交付作为全球最大的笔记本与服务器ODM厂商,广达为该项目提供了端到端的工程与制造支持:光学引擎团队:负责先进光学设计、专有校准流程与可量产架构;HMD整机团队:主导系统集成与结构优化;高精度、可扩展的自动化产线:确保从试产到百万级出货的无缝过渡。此次合作不仅验证了LiFiD技术的工程可行性,更打通了从实验室创新到商业化落地的关键路径。面向全行业应用,评估样机已开放PetaRay强调,该AR头显解决方案适用于医疗手术导航、工业维修、教育培训、外场作业、沉浸式训练及创意设计等广泛场景。目前,评估样机已准备就绪,正面向全球合作伙伴开放测试。随着光场AR从概念走向实用,PetaRay与广达的联手,或将成为下一代空间计算硬件的重要里程碑。
在CES2026(美国拉斯维加斯)上,AR光波导技术领军企业Lumus正式发布了其最新一代几何反射式光波导产品线,包括全球首款视场角超过70°的「ZOE」、性能优化的「Z-30」,以及即将推出的超薄版「Z-302.0」。此举标志着Lumus正加速推动AR眼镜从"信息提示"迈向"沉浸体验"与"全天候佩戴"的双重演进。ZOE:全球首款70°+几何波导,开启沉浸式AR新纪元Lumus全新推出的ZOE光学引擎实现了大于70°的视场角,公司称这是几何波导技术领域的世界首次突破。该模组支持1080p全彩显示,采用标准光学玻璃制造,并兼容现有量产工艺,确保高性能与可扩展性的统一。ZOE的超广视场专为空间娱乐、多任务生产力等沉浸式AR应用设计,同时保持高透光率,确保用户在虚拟与现实之间无缝切换,避免"数字孤岛"感。Z-30升级版:亮度提升40%,专注"一瞥即知"场景面向轻量化、高频次交互场景,Lumus同步展示了优化后的Z-30光学引擎。尽管维持30°视场角,但新版本实现了:亮度提升40%图像质量显著改善发光效率高达>8,000尼特/瓦整机仅重11克该模组适用于导航提示、实时翻译、情境信息推送等"glanceable"(一瞥即知)用例,兼顾能效与实用性,是当前消费级AR眼镜的理想选择。值得一提的是,Lumus的Z-30技术已于2025年成功集成至Meta的Ray-BanDisplayAR眼镜,成为首款大规模商用的几何波导方案,验证了其可靠性与量产能力。预告Z-302.0:史上最薄波导,助力眼镜形态自然化Lumus还首次预览了下一代产品「Z-302.0」。该模组基于全新超薄波导架构,相较前代实现:厚度减少40%重量减轻30%公司称其为"Lumus有史以来最薄的光波导",旨在帮助OEM厂商设计出更接近普通眼镜、更具时尚感与舒适度的AR设备,真正实现"全天候佩戴"。"为不同体验定制光学引擎",Lumus定义AR光学新范式LumusCEOAriGrobman表示:"二十多年来,我们始终专注于光波导技术的前沿探索。2025年Meta采用我们的方案,不仅验证了技术成熟度,更将消费级AR推向新高度。"他强调,此次发布的三款产品代表了"按体验类型定制光学引擎"的战略:"无论是沉浸式内容还是全天候信息辅助,我们都提供匹配的解决方案,让消费者愿意真正戴上AR眼镜。"目前,ZOE与Z-302.0已在CES2026展会现场展出,预计将在未来12–18个月内陆续赋能新一代AR硬件产品。
专注于为国防与商业应用提供无头显沉浸式显示硬件与软件的公司Brelyon,在本周的CES2026上发布了两项重要产品更新:一款更紧凑的无头显显示设备UltraRealityMini,以及其VisualEngine平台的新功能演示。UltraRealityMini:将55英寸显示器体验压缩至16英寸光圈中UltraRealityMini是BrelyonUltraReality系列中的最新成员,它以更小的尺寸和更低的价格提供了无头显沉浸式体验。该系统通过一个16英寸的光圈,虚拟生成了一个55英寸的显示屏,其光学深度为1米,提供86度视场角和16:9宽高比。"2026款UltraRealityMini是一款在沉浸感、尺寸与成本之间取得平衡的产品。"BrelyonCEOBarmakHeshmat表示,"它旨在将当今市场上最大可购买到的55英寸显示器体验,浓缩进一个16英寸的光圈中。"特性亮点:无需校准或调整:用户无需进行任何内容调整或大型屏幕设置,即可享受个人专属的沉浸空间;声学黑点设计:可选配的声学翼板使用声学超材料和结构屏障,在不需耳机的情况下创造出平均降低12分贝的声学暗区(acousticdarkspot),同时允许空气流通和头部自由移动;轻量化设计:便于与动态支架或座椅集成,减少操作时的扭矩负担,适合长时间沉浸体验;VESA兼容:易于安装并与其他设备集成。UltraRealityMini已在其官网开放预订。VisualEngine:基于屏幕行为自动重塑信息展示方式除了发布UltraRealityMini,Brelyon还推出了VisualEngine平台的一项新功能--自适应智能(adaptiveintelligence)。该功能能够直接从屏幕内容的变化中提取信息,并实现自动化处理。核心原理:视觉层深度学习:通过对日常交互如滚动、点击、拖拽等动作的学习,识别用户任务与屏幕变化之间的关联;跨平台智能自动化:利用大规模视觉模型,VisualEngine能够在现有软件之上添加一层智能自动化层,适用于不同界面和遗留系统;独立于底层应用:无论应用程序、代码库或软件框架如何,VisualEngine都能无缝集成,支持标准LCD和OLED显示器以及Brelyon自有的UltraReality显示器。"这就像通过视觉自动化了自动化过程;而不是每次都要详细告诉大语言模型你想要什么,BrelyonVisualEngine利用视觉技术逐步实现界面的自动化。"Heshmat解释道。VisualEngine预计将于2026年第二季度正式推出,主要面向企业可视化门户市场,包括模拟训练、远程操作及运营中心等涉及重复性图形用户界面任务的应用场景。
LG电子宣布将在2026年国际消费电子展(CES2026)上打造一个沉浸式体验空间,首次完整呈现其基于"情感智能"理念的未来移动出行愿景。该展区不仅让观众亲身感受AI如何重构驾驶位、副驾与后排空间,更将整个座舱转化为直觉化、人性化的第三生活空间。凭借这一整套创新方案,LG车用解决方案公司首次荣获CES2026"车载娱乐"类别"最佳创新奖",标志着其在智能座舱领域的技术整合能力获得国际权威认可。三大核心体验:AI定义下一代智能座舱LG的展示围绕三大核心解决方案展开,均构建于统一的"AI定义汽车"(AI-DefinedVehicle)架构之上,融合尖端显示技术、舱内感知系统与端侧AI能力:1.移动显示解决方案搭载透明OLED技术的挡风玻璃可动态呈现关键信息。例如,接近红绿灯时,AI会在信号灯上方精准显示剩余等待时间;在自动驾驶模式下,系统还能根据外部环境生成沉浸式视觉场景:行驶于林荫道时,樱花花瓣随风飘落;穿越隧道时,单调墙面幻化为奇幻森林,营造近似VR的感官体验。2.汽车视觉解决方案基于LG自研的汽车视觉系统,该方案通过实时追踪驾驶员的视线方向、注意力状态、手势、衣着颜色甚至微表情,理解乘员意图并作出响应。驾驶员可通过眼动或手势控制调取兴趣点信息;变形宽银幕(Anamorphic)图形技术增强画面纵深感;在自动驾驶状态下,若副驾乘客注视路边广告牌,系统将自动在屏幕推送相关商品详情,实现"所见即所得"的无缝购物体验。3.车载娱乐解决方案AI能识别车外景致,并在车窗上唤起用户与此地相关的过往照片记忆;乘客可即时通过视频通话与家人分享这些瞬间。长途旅行中,系统会根据个人偏好推荐影视内容,真正"把里程变成美好时刻"。更令人惊喜的是,当车外餐厅服务员使用手语交流时,AI可实时将其翻译为屏幕文字,助力无障碍双向沟通。LG的AI智能座舱解决方案将于2026年1月6日至9日在CES2026展会期间(拉斯维加斯会展中心#15004展位)正式向公众开放体验。