Xreal联合创始人兼CEO徐驰近日在彭博电视台披露,公司已完成新一轮融资。除未具名的其他投资方外,本轮融资还获得了来自"供应链合作伙伴"的资金支持。据Crunchbase数据显示,自2017年成立以来,Xreal累计已获得外部融资4.33亿美元。其最近一次公开融资发生于2025年5月,由浦东创投领投,融资金额为2亿元人民币(约合2860万美元)。此轮融资后,Xreal正式跻身独角兽行列,估值达到10亿美元。联手华硕、谷歌,押注下一代XR硬件近期,Xreal在产品与生态合作方面动作频频。公司与华硕旗下电竞品牌ROG(玩家国度)联合发布了ROGXREALR1--一款刷新率达240Hz的"游戏眼镜",主打低延迟、高帧率的沉浸式移动游戏体验。与此同时,谷歌宣布将与Xreal的合作关系进一步深化,明确将其定位为AndroidXR生态系统的核心硬件合作伙伴。这一举措被视为谷歌在Meta主导的封闭生态之外,推动开放XR平台战略的关键一步。徐驰在采访中确认,Xreal当前正在开发的AndroidXR眼镜项目"ProjectAura"进展顺利,预计将于2025年内正式发布。该设备有望成为首批深度集成AndroidXR操作系统的消费级轻量级AR眼镜之一。
在CES2026期间,Google宣布与AR眼镜厂商XREAL达成一项多年期战略合作延期,正式将XREAL定位为AndroidXR生态系统的"核心硬件合作伙伴"。双方将共同推动AndroidXR平台在光学透视设备上的落地。作为合作的核心成果,XREAL即将推出的ProjectAuraAR眼镜将成为全球首款运行AndroidXR系统的光学透视AR设备,预计将于2026年内正式上市。轻量化设计+分体式计算:兼顾性能与佩戴舒适性XREALAura采用创新的分体式架构:眼镜本体:集成70°超大视场角的光学透视显示模组,并内置X1S自研芯片,负责传感器融合与低延迟渲染;外置计算单元:搭载高通SnapdragonXR2+Gen2芯片,提供强大算力,支持6DoF空间定位、手势识别、眼动追踪,并深度集成GoogleGemini大模型,实现情境感知与智能交互。得益于将电池与主处理器移至外部模块,Aura眼镜本体极为轻巧,佩戴体验接近普通太阳镜。该计算单元可轻松放入口袋,外形酷似智能手机,但整个正面是一块大型触控板--用户既可通过类鼠标操作精准控制界面,也可结合手势追踪实现无接触交互。首款AndroidXR光学透视设备,定义下一代空间计算入口Google与XREAL在联合声明中强调,此次合作将"把XREAL的长期硬件路线图与AndroidXR平台深度对齐"。这意味着未来XREAL的产品将优先适配AndroidXR的新特性,包括空间感知、多设备协同、AI代理等能力。作为首款搭载AndroidXR的光学透视眼镜,Aura不仅是硬件突破,更是Google构建"开放、跨设备、AI驱动"的空间计算生态的关键一环。同步拓展游戏场景:携手华硕ROG推出240Hz高刷AR眼镜值得注意的是,在CES2026上,XREAL还宣布与华硕ROG合作开发一款面向传统PC/主机游戏玩家的AR眼镜。该设备主打240Hz超高刷新率,旨在为《CS2》《Valorant》等竞技游戏提供低延迟、高流畅度的沉浸式大屏体验,进一步拓展AR在娱乐领域的边界。尽管ProjectAura的具体发售日期尚未公布,但Google表示"今年晚些时候将披露更多细节"。随着AndroidXR生态加速成型,XREAL正从消费级AR显示器厂商,转型为下一代空间计算硬件的核心推动者。
Google已开始向三星GalaxyXR推送AndroidXR系统的首次重大更新。此次升级包含三项核心功能:拟真虚拟形象系统Likeness、适用于交通工具的出行模式,以及内置的Windows远程桌面工具PCConnect。这些新特性标志着AndroidXR正从基础平台向成熟生产力与社交体验加速演进。Likeness:跨平台通用的拟真虚拟形象Likeness是Google为AndroidXR打造的高拟真虚拟形象系统,功能上对标AppleVisionPro的Personas(非空间版本)。其最大特点是无需应用开发者适配--在视频通话中,Likeness会自动替代手机前置摄像头的原始画面,向任何视频会议平台提供虚拟形象输出。用户需使用支持的Android手机完成面部扫描(而非通过头显),数据随后安全传输并存储于GalaxyXR中。在通话过程中,系统借助头显的眼动追踪与面部追踪能力实时驱动虚拟形象,并在用户举起双手时同步显示虚拟手部,增强临场感。目前,Likeness应用仅限部分Android机型使用,且尚未推出空间化版本(即支持3D空间视频通话的形态)。TravelMode:解决移动场景下的定位漂移新加入的TravelMode旨在优化在飞机、火车等移动载具中的使用体验。传统VR/AR设备依赖IMU(惯性测量单元)感知头部运动,但在车辆加速、颠簸或转向时,IMU会误判为用户头部动作,导致虚拟窗口"反向漂移"。TravelMode通过降低对IMU的依赖、增强视觉定位权重来缓解这一问题。尽管可能带来轻微追踪精度损失,但能显著提升移动环境下的可用性。AppleVisionPro首创该功能后,Meta、PICO与Snap相继跟进,如今AndroidXR也正式加入这一行列。PCConnect:原生远程桌面PCConnect允许用户将WindowsPC桌面以虚拟屏幕形式投射至AndroidXR环境中。安装配套流媒体应用后,可选择镜像整个桌面或单个窗口。虽然GooglePlay上已有如VirtualDesktop等成熟第三方方案,但PCConnect的意义在于提供系统级集成选项。不过,与Meta和微软深度合作的Windows11远程桌面方案相比,当前PCConnect并未获得微软官方支持,功能也较为基础--暂不支持虚拟扩展显示器、多比例窗口等高级特性。生态演进信号明确此次更新虽以测试功能为主,但清晰传递出Google的战略方向:以AI与跨设备协同为核心,构建轻量化但高兼容的空间计算体验。随着2026年更多AndroidXR设备(如XrealProjectAura)上市,Likeness是否会推出空间化版本、PCConnect能否支持更复杂的虚拟多屏工作流,将成为观察重点。
在近日举行的"TheAndroidShow:XREdition"特别活动中,Google与Xreal首次公开了ProjectAura的实际使用片段。这款设备作为继三星GalaxyXR之后第二款官方认证的AndroidXR产品,仍按计划于2026年正式上市--这一时间点尤为关键,恰逢Meta内部备忘录泄露其同类"计算模块+头显"产品已推迟至2027年。定位清晰:轻量化头显,非传统AR眼镜ProjectAura延续Xreal现有产品的太阳镜式外观设计,采用棱镜光学方案,但与当前仅作为"虚拟显示器"的产品不同,Aura将配备一个外接计算模块,内置高通骁龙芯片并运行原生AndroidXR系统。官方数据显示,其对角视场角达70度,为Xreal旗下最广;同时集成头部与手部追踪功能。多数GalaxyXR上的应用与特性也将兼容Aura,唯独不支持基于面部追踪的"Likeness"高拟真虚拟形象--因设备未搭载相关传感器。需要强调的是,尽管外形类似墨镜,ProjectAura实际佩戴时镜片距离眼球远大于普通眼镜,且采用成本较低但体积较大的棱镜光路,而非Apple与Meta未来AR眼镜所用的波导技术。此外,其镜片几乎完全遮光,无法作为日常室内处方眼镜使用。因此,ProjectAura更应被理解为GalaxyXR的轻量替代方案:以牺牲部分视场角与环境通透性,换取更紧凑的形态,而非对标真正意义上的全天候户外AR眼镜。外形尺寸对比:Ray-BanMetavsMeta、Ray-BanDisplayvsXrealOnePro。AndroidXR生态格局生变此次确认Aura按期推进,也折射出AndroidXR硬件生态的微妙调整。就在一个月前,Lynx宣布Google已终止与其AndroidXR合作。此前,Google曾明确表示三星、Lynx、Xreal与索尼四家厂商共同开发AndroidXR设备。目前,Google虽拒绝对Lynx事件置评,但确认仍与索尼保持合作--尽管后者尚未展示任何AndroidXR产品,其现有SRH-S1头显仍运行自家定制版Android系统。在Meta推迟、Lynx退出的背景下,XrealProjectAura与三星GalaxyXR或将成为2026年AndroidXR生态落地的唯二支柱。
在近日举办的特别活动中,Google正式公布了一项名为'系统自动空间化'(SystemAutospatialization)的AI新功能。该技术可将任意2D内容--包括从PC串流的游戏、网页、视频等--实时转化为沉浸式3D体验,并计划于2026年登陆AndroidXR平台。唯一支持视频实时3D化的XR平台目前,ApplevisionOS与PICOOS等系统已支持将2D照片一键转为3D视图,但在视频和动态应用内容的实时空间化方面,AndroidXR将成为首个在头显端实现该能力的操作系统。尽管Viture等XR眼镜也具备类似功能,但Google此次将其集成于完整的XR操作系统中,且运行在高通XR2+Gen2芯片上,这意味着在承载完整系统负载的同时,芯片还需实时处理复杂的AI空间推理任务。据Google介绍,系统自动空间化将支持"几乎所有"应用程序,并可同时在多个应用中生效。演示画面展示了用户通过PC串流运行《城市:天际线》(Cities:Skylines)时,AI能智能区分前景UI界面与背景3D城市场景,仅对后者进行深度重建,从而保留操作逻辑的同时增强沉浸感。该功能预计将在2026年随AndroidXR系统更新,率先登陆三星GalaxyXR等设备。届时,用户无需开发者适配,即可在现有2D生态中获得原生级的空间体验。
据科技媒体《IntelligentEmergence》披露,谷歌已于2024年底启动两个独立的AI眼镜项目,目前均已进入概念验证阶段,正密集推进核心元器件选型与工业设计。这标志着这家AR领域的先行者,在沉寂多年后,正以更系统、更务实的姿态重返智能眼镜赛道。双项目并行,与Xreal合作款无关值得注意的是,尽管谷歌在今年5月I/O大会上联合中国AR品牌Xreal发布了ProjectAuraAR眼镜,但消息人士明确指出,此次推进的两个新项目与Aura无任何关联,属于完全独立的平行开发路线。这意味着谷歌正在多路径探索AI眼镜的未来形态。硬件方面,富士康(Foxconn)负责整机组装,三星提供参考设计,高通供应主芯片,同时谷歌也在接触包括歌尔股份在内的中国供应链企业。产品预计将采用光波导光学方案,并集成摄像头,定位为具备视觉感知能力的AI终端。项目核心负责人之一为MichaelKlug--现任GoogleLabs平台工程负责人,曾是MagicLeap早期核心成员,持有包括光场显示在内的多项关键技术专利。其背景暗示谷歌在光学与空间计算层面仍抱有高远目标。从"炫技"到"实用":谷歌的十年反思谷歌早在2012年便以GoogleGlass开启智能眼镜时代,创始人SergeyBrin甚至通过跳伞直播震撼全球。然而因隐私争议与功能局限,该产品于2015年黯然退市。此后,谷歌并未放弃,而是转向B2B领域谨慎试水:将GlassEnterpriseEdition应用于物流分拣、远程医疗指导、工业设备维护等场景,积累真实世界数据与使用反馈。这一战略调整为其后续AI眼镜的"问题导向"设计奠定了基础。全栈布局:OS+AI+生态,谷歌手握王牌如今面对MetaRay-Ban智能眼镜的先发优势,谷歌并非仓促应战,而是早已完成底层基建:操作系统:2023年联合三星、高通推出专为XR设备打造的AndroidXR,直接接入GooglePlay商店,复用庞大应用生态;AI大模型:自研Gemini模型集自然语言理解、多模态推理、知识库与生成能力于一体,已深度部署于Pixel手机;AI智能体:2024年I/O大会展示的ProjectAstra,即基于Gemini构建,具备视觉理解、长期记忆与连续对话能力,并已在眼镜原型上实现实时演示。这些技术模块的成熟,使谷歌AI眼镜有望成为首个真正融合端侧AI智能体+空间感知+内容服务的一体化终端。最强对手入场,AI眼镜战局升级随着苹果VisionPro聚焦空间计算、Meta押注社交化AI眼镜,谷歌的回归或将重塑竞争格局。凭借十年硬件经验、全栈技术能力与全球生态资源,谷歌被视为"AI眼镜领域历史上最全面的选手"。若进展顺利,其首款消费级AI眼镜最早或于2026年第四季度面世。届时,这场围绕"下一代个人计算入口"的争夺,将迎来真正的高潮。
法国初创公司Lynx近日透露,其下一代VR/AR头显将不再运行Google的AndroidXR操作系统。Google已"终止"与其在AndroidXR上的合作协议。尽管如此,Lynx强调仍对未来在设备上支持AndroidXR持开放态度--前提是Google正式向第三方厂商开放该系统。从R1到新机:一次战略调整与技术跃迁Lynx于2020年首次公布其首款产品Lynx-R1,这是一款采用开放式周边视觉设计的独立混合现实头显,并于2021年发起Kickstarter众筹。若按原计划于2022年交付,R1本将成为首款支持彩色透视的消费级一体机。然而因多次延期,最终被MetaQuestPro抢先上市;等到首批支持者真正收到设备时,市场早已迎来Quest3与AppleVisionPro,二者在芯片性能上大幅领先。最初R1定位为约500美元的消费级产品,直接对标MetaQuest系列。Lynx表示,部分早期支持者确实以该价格获得了设备,未收到者也大多收到了退款。但随着公司战略转向企业市场,后续零售价一路涨至850美元,最终达1300美元。去年12月,Google发布AndroidXR操作系统时,曾宣布Lynx、索尼与Xreal均为合作厂商,将紧随三星推出相应设备。上月Lynx放出一张模糊的新品预告图,外界一度猜测其或将成为第二款不透明设计的AndroidXR头显。如今这一预期落空。自研LynxOS开源,挑战封闭生态面对合作终止,Lynx决定继续沿用其自研的LynxOS--这是一个基于Android、集成OpenXR支持的开源操作系统。公司承诺将公开完整源代码,供开发者、爱好者及企业用户使用,作为当前主流封闭式XR操作系统的替代方案。Google虽未就与Lynx的合作状态置评,但确认仍在与Xreal和索尼推进AndroidXR相关项目。超广FOV成最大亮点,光学方案对标Meta原型机Lynx透露,新头显定位"中端",售价介于MetaQuest3与三星GalaxyXR之间,并将凭借与以色列初创公司Hypervision联合开发的先进非球面"煎饼透镜"(asphericpancakelenses),实现目前所有已知一体机中最宽的视场角(FOV)。其光学路径与Meta此前展示的Boba3原型机类似,但Lynx谨慎指出:受限于一体机形态的工程现实,新设备虽将显著超越现有产品,但仍远不及Boba3的理论水平。吸取R1教训,新机不再预售谈及交付问题,Lynx创始人StanLarroque坦言,R1项目让团队在电子供应链管理上"学到了太多"。因此,新款头显将不再通过Kickstarter或预购形式发售。他表示:"一旦开售,设备即可立即发货。"完整规格与细节将于未来数月陆续公布,并计划于明年1月下旬在SPIE展会正式亮相。
随着三星GalaxyXR在2025年10月发布后广受好评,AndroidXR--由Google、三星与高通联合打造的扩展现实操作系统--已正式确立其在XR领域的核心地位。这一被寄予厚望的操作系统,正推动一场从科技到时尚的智能眼镜革命。尽管Google尚未推出自家品牌的AndroidXR眼镜,但多个原型设备和合作项目已透露出强烈信号:2026年,或将迎来智能眼镜的规模化落地元年。核心玩家布局:科技巨头与时尚品牌齐入场三星智能眼镜(SamsungSmartGlasses)作为Google最紧密的合作伙伴之一,三星的AndroidXR智能眼镜备受期待。三星移动产品管理副总裁DrewBlackard明确表示:"它即将推出",并强调"已接近执行阶段",虽不会在2025年发布,但"不远了"。据透露,这款眼镜将集成摄像头与GoogleGeminiAI,不仅能提供语音交互,更能通过视觉输入进行实时信息识别与屏幕内容辅助,功能上远超MetaRay-Ban仅限音频的AI体验。Xreal「ProjectAura」AR硬件厂商Xreal的AndroidXR项目代号为「ProjectAura」,预计2026年发布。从泄露图像看,其设计延续Xreal一贯的轻量化风格,可能采用有线连接手机或计算单元的方式,以降低重量与成本,主打消费级市场。WarbyParker智能眼镜美国知名眼镜品牌WarbyParker正式加入AndroidXR生态。Google已承诺最高1.5亿美元投资:其中7500万美元用于产品开发与商业化,另7500万美元视里程碑达成情况追加。目前仅曝光一张预览图,显示其延续品牌标志性的极简美学设计,强调"像普通眼镜一样日常佩戴"。首款产品预计支持处方镜片,但暂不搭载复杂显示技术,而是聚焦于轻量级AI功能,如Gemini语音助手、环境感知与通知提醒,定位为"时尚可穿戴AI设备"。其他传闻中的重磅参与者MagicLeap曾经历沉寂的MagicLeap已转型为技术授权者,并与Google联合推出AndroidXR参考原型机。该设备融合MagicLeap的波导光学技术与GoogleRaxium的微LED光引擎,具备高亮度、低功耗特性,专为全天候AR使用设计。此举标志着其正式回归企业级与消费级AR赛道。GentleMonster韩国潮流眼镜品牌GentleMonster宣布与Google合作,或将推出兼具前卫设计与沉浸式体验的AndroidXR眼镜。若延续其"科技与艺术融合"的风格,有望打造最具视觉冲击力的AR时尚单品。KeringEyewear奢侈品眼镜制造商KeringEyewear(旗下品牌包括Gucci、Balenciaga、AlexanderMcQueen)也已加入AndroidXR生态。这意味着未来你可能戴上一副售价数千美元的AR高级定制眼镜--将奢侈美学与空间计算结合,重新定义高端可穿戴设备。AndroidXR战略:开放生态,多元并进与Meta封闭的HorizonOS不同,Google采取开放合作模式,通过AndroidXR为不同类型的厂商提供统一平台:科技公司(三星、Xreal)主攻高性能AR;时尚品牌(WarbyParker、GentleMonster、Kering)主打设计与日常佩戴;企业方案商(MagicLeap)聚焦专业场景。这种"百花齐放"策略,旨在从多个入口推动用户接受智能眼镜,最终构建一个覆盖消费、企业与时尚的全域XR生态。2026:谁将定义"日常AR"?随着硬件、AI与设计的深度融合,2026年将成为智能眼镜的关键转折点。问题已不再是"谁先发布",而是:谁能真正让AR眼镜变得不可或缺?是来自硅谷的技术突破,还是源自巴黎时装周的设计革命?抑或,答案就藏在GoogleGeminiAI+AndroidXR+时尚外衣的组合之中?
据BusinessInsider报道,Meta已对RealityLabs部门进行结构性调整,将HorizonOS从原有的"元宇宙"业务组中剥离,升格为与"元宇宙"和"可穿戴设备"并列的一级业务部门这一调整标志着Meta在XR操作系统层面的战略升级,凸显其将HorizonOS打造为开放平台、与谷歌AndroidXR直接竞争的决心。组织架构调整:OS独立,领导层换防在此次重组前,RealityLabs的两大核心部门为:元宇宙(Metaverse):负责Quest头显、HorizonOS平台、HorizonWorlds等第一方软件。可穿戴设备(Wearables):主管Ray-Ban和Oakley智能眼镜、AR眼镜研发及Meta神经腕带(NeuralBand)。如今,HorizonOS被独立出来,由RyanCairns继续领导,并直接向MetaCTO安德鲁·博斯沃思(AndrewBosworth)汇报。而原"元宇宙"部门负责人VishalShah已调任至Meta超级智能实验室(MetaSuperintelligenceLabs),负责AI产品与跨部门整合。新任"元宇宙"部门负责人GabrielAul将带领团队专注于VR与移动端的高质量体验开发,而HorizonOS团队则聚焦于构建更强大的软硬件基础平台。元宇宙优先级未变,但OS战略更清晰博斯沃思在内部备忘录中强调:"元宇宙工作的优先级没有改变,它仍然是全公司的重点。"他指出,Meta已向行业证明了其技术路线的正确性,正吸引越来越多的竞争对手入局,因此必须"持续巩固来之不易的优势"。他还提到,VR正从游戏向娱乐、生产力和社交连接等更广泛场景扩展,而AI创作工具正在加速虚拟世界的构建。此次组织调整旨在优化执行效率,确保"元宇宙"与"HorizonOS"团队在保持战略协同的同时,能更专注各自核心使命。对标AndroidXR,争夺XR生态主导权值得注意的是,谷歌的AndroidXR系统已随三星GalaxyXR首发,并计划于2026年登陆更多设备。Meta此举被广泛解读为明确将HorizonOS定位为AndroidXR的直接竞争者。通过将OS独立运作,Meta可更灵活地推进平台标准化、开发者生态建设和跨设备兼容性,为未来真正的AR眼镜和通用空间计算平台铺路。此外,近期Quest系统更新v83中,已将"世界"(Worlds)从应用库中独立为单独标签页,这一UI变化也被视为"OS与内容分离"战略的外在体现。平台化加速,Meta的XR野心不止于头显此次重组并非削弱元宇宙,而是将底层操作系统提升至与应用生态同等重要的战略地位。通过独立HorizonOS,Meta正从"VR设备制造商"向"空间计算平台提供商"转型,为迎接下一代计算平台的全面竞争做好准备。
在三星GalaxyXR上,用户可从纽约"瞬移"至洛杉矶--指尖轻捏锁定大都会艺术博物馆,手掌滑动拖拽、缩放地球,目光所及之处即为目的地,好莱坞标志清晰浮现。这一沉浸式全球漫游的核心,是AndroidXR平台上最惊艳的应用:GoogleMaps。系统通过动态晕影(vignetting)与网格视图,平滑处理数百英里的空间跃迁,甚至无缝切换地球横竖姿态。从太空俯冲至洛杉矶的过程流畅自然,实现了直观的手势操控体验。不只是地图:一个被重新定义的空间入口这种直觉式交互唤起了《TheUnderPresents》的体验记忆:远处高楼吸引视线后,伸手一拉即可抵达。相比visionOS上以无人机视角飞行的Fly或桌面三维地球仪SpatialEarth,GalaxyXR的"亲手抓取世界"更具直接感与自由度。尽管系统支持Netflix、Demeo、《WalkaboutMiniGolf》等应用,VirtualDesktop也以90FPS展现性能潜力,但GoogleMaps的沉浸感仍远超其他内容。从GoogleEarthVR到AndroidXR2016年,GoogleEarthVR登陆Steam,成为PCVR时代最具代表性的"数字星球"体验。如今,AndroidXR上的GoogleMaps正是其进化形态--无需PC、无需手柄,独立运行,将十年前的梦想带入更轻便的现实。目前系统已支持室内地图浏览,并提供可多任务并行的"GoogleEarth"平面版本。然而,GoogleMaps的强势表现,反而凸显了操作系统在发布初期对其他应用生态支持的不足。先打开地图,再看世界对于AndroidXR设备而言,首次使用应优先启动GoogleMaps。它不仅是系统能力的集中体现,更是对VR本质的回归--一个可自由探索、无限延展的数字宇宙。十年前,GoogleEarthVR让人们相信未来;今天,GalaxyXR上的GoogleMaps,正让那个未来触手可及。