据韩国媒体NewsPim报道,三星与谷歌合作开发的AndroidXR混合现实头显将于2025年10月13日率先在韩国市场推出,之后将在全球范围内"逐步"上市。报道称,该设备的预售活动将与一场9月29日在韩国举办的SamsungUnpacked发布会同步开启。🗓️此前传闻:原计划7月亮相纽约,但仅限原型展示就在一周前,一位专注于爆料三星消息的博主曾暗示,这款头显原本计划于2025年7月在纽约举行的SamsungUnpacked活动上正式发布,并优先面向韩国市场发售。不过NewsPim表示,7月的活动将只展示原型机演示和一段"预告视频",并不会真正发布产品。🔍细节仍然有限:已宣布两年多,仍未完全揭晓三星早在两年前就首次公布了这款头显项目,当时表示软件将由谷歌负责,芯片则采用高通平台。去年初,这款头显所使用的芯片被正式确认为高通SnapdragonXR2+Gen2,这是Quest3和Quest3S所用芯片的高端版本,也已用于PlayforDreamMR设备。直到去年12月,这款VR眼镜的外观设计才首次公开,同时谷歌也正式命名了其操作系统AndroidXR,确认该设备将在2025年作为消费级产品推出。但从那以后,三星尚未公布更多官方细节。📊韩国媒体报道透露部分配置信息今年3月,多家韩国媒体报道了关于这款头显的部分硬件规格和生产计划:TheElec报道称,三星将采用索尼最新推出的1.35英寸micro-OLED显示屏,分辨率为3552×3840,相较苹果VisionPro使用的屏幕具备更高的分辨率和更广的色域。BusinessPost则称,三星计划在2025年第三季度(7月至9月)推出这款头显,但每年产量仅为10万台,这表明该设备定位高端,价格可能非常高昂。🧑💻错过GoogleI/O:焦点转向智能眼镜与XrealAura尽管业界曾期待在GoogleI/O2025年5月大会上看到更多关于这款头显的信息,但最终焦点主要集中在智能眼镜,以及第二款已确认搭载AndroidXR的设备--Xreal的ProjectAura。
在刚刚结束的GoogleI/O大会上,Google展示了它对AndroidXR的愿景。但你可能没有意识到的是:运行在头显上的"AndroidXR"和运行在智能眼镜上的"AndroidXR",其实是两个完全不同的操作系统。这个名字最早是由《商业内幕》(BusinessInsider)记者HughLangley在18个月前首次报道出来的。据他当时的独家消息,Google内部将用于头显的操作系统称为"AndroidXR",而用于智能眼镜的轻量级版本则被称为"AndroidmicroXR"。但现在,事情变得有些模糊了。从内部命名到公开宣传:Google把两套系统统一叫"AndroidXR"自Google去年12月正式公布这两个平台以来,官方却开始将它们统称为"AndroidXR"。例如:三星的设备被称为"AndroidXR头显"Google自己展示的智能眼镜原型(在TED和I/O上亮相的带小HUD显示的眼镜),则被称为"AndroidXR眼镜"这种命名方式不仅令人困惑,而且容易误导公众。因为实际上,它们是两个完全不同、定位截然相反的操作系统平台。两者之间到底有什么区别?运行在头显上的AndroidXR:是你在手机或平板上熟悉的Android体验的延伸;完全独立运行,具备完整的PlayStore支持;提供完整的开发者SDK,支持原生应用开发;更像是一个"便携式VR/AR操作系统"。运行在智能眼镜上的AndroidXR:是一个高度裁剪、功能受限的Android版本;目前Google尚未公布任何SDK或平台细节;实际运算大多依赖连接的智能手机,类似于Ray-BanMeta眼镜的工作模式;更像是一个"轻量级信息显示终端",而非完整计算平台。虽然二者共享同一个AOSP(Android开源项目)内核,并且都集成了部分Google服务,但除此之外,它们几乎没有任何相似之处。类比理解:如果AppleWatch叫做"iOS设备"想象一下,如果苹果把AppleWatch称作"iOS设备",或者Meta把Ray-BanMeta眼镜说成运行HorizonOS,那是不是也会让人感到迷惑?这就是目前Google对"AndroidXR眼镜"的定义所带来的问题--它让外界误以为这些设备拥有和头显一样的功能与生态支持。Google的策略动机是什么?我推测,Google之所以有意模糊这两者的界限,可能是出于以下几点考虑:Ray-BanMeta眼镜的成功让穿戴式AR成为消费市场的热门话题;Meta的Orion原型引发了大量关注;初代AppleVisionPro面临市场冷遇,也让Google不想把自己归类为"高端头显厂商"。因此,Google很可能希望借助"AndroidXR"这个统一品牌,制造一种"我们已经全面布局XR生态"的印象,而不是明确区分这两个平台的不同定位。混淆的风险:XrealAura让"眼镜"概念更加模糊就在Google发布其智能眼镜的同时,Xreal推出了ProjectAura,一款外观类似太阳镜、实则通过外接计算模块运行"头显版AndroidXR"的设备。这就意味着,"AndroidXR眼镜"这个词现在有了双重含义:一类是面向消费者的轻量级智能眼镜(如Ray-BanMeta)一类是更接近头显形态、功能强大的"类眼镜设备"(如XrealAura)换句话说,你未来可能会看到两种都叫"AndroidXR眼镜"的产品,但它们背后的操作系统、功能、应用场景却完全不同。对用户和开发者的潜在影响当一个开发者宣布他们推出了一款"面向AndroidXR"的应用时:用户是否能明白,这款应用并不能在Ray-BanMeta或WarbyParker合作的眼镜上运行?开发者是否清楚,他们的"AndroidXR应用"其实只能在头显设备上使用?对于像你这样的VR52读者来说,这些差异或许一目了然。但对于普通消费者而言,XR设备之间的区别还远未普及,这种模糊命名只会加剧认知混乱。解决方案建议:给眼镜平台起个新名字!要解决这个问题其实很简单:给智能眼镜平台起一个全新的名字。比如:GlassOS(曾用于初代GoogleGlass)GlassesOS(类似WearOS的命名逻辑)这样可以清晰地划分出两个平台的边界,也便于用户和开发者理解不同设备的能力差异。结语:营销vs透明度的博弈截至目前,还没有任何一家硬件厂商真正发布过"AndroidXR"设备。也许等到产品正式上市后,Google会通过市场营销和公关手段,澄清这两个平台的区别。但从目前的信息来看,我并不乐观。Google显然更倾向于制造"统一生态"的幻觉,而非清晰的产品定位。如果你是开发者、媒体人或早期采用者,了解这一区别至关重要。因为它不仅关系到你能做什么、不能做什么,也决定了你对未来XR生态发展的判断方向。
最近Google在XR(扩展现实)领域动作频频,从和三星合作头显,到不断更新AndroidXR生态,整个行业都在蠢蠢欲动。尤其是在TED2025上,Google展示了AI+XR的未来图景--这说明,不只是游戏和社交,XR已经开始向企业级应用发力了。但问题是,虽然很多公司嘴上喊着"要搞XR",真正落地的却寥寥无几。为什么?不是技术不行,而是不知道从哪入手:选什么设备?要不要换系统?员工会不会不会用?有没有安全隐患?别急,今天我们就来聊聊,AndroidXR到底是什么?企业该怎么用?又该从哪里起步?一、什么是AndroidXR?它有什么特别的?简单来说,AndroidXR就是Google把AR/VR/MR都装进Android系统里的一套"操作系统"。你可以把它理解为是Google给VR头显、AR眼镜这些新设备准备的操作系统,就像当年安卓之于智能手机一样。它最大的优势就是:兼容性强:支持各种品牌、各种形态的硬件;开发门槛低:开发者可以用Unity、OpenXR这些熟悉的工具来做内容;开放标准:支持OpenXR,不绑定特定厂商;生态打通:能无缝接入GoogleCloud、PlayStore、GeminiAI等服务。一句话总结:它不是要做一个封闭的"元宇宙",而是想让XR成为企业数字化转型的一部分。二、企业为什么要关注AndroidXR?如果你是企业的决策者,可能会问:"这玩意儿到底能给我带来什么?"我们来看看它的几个核心价值:✅更高效的培训与协作比如工厂的新员工培训,以前靠老带新或者看视频,现在戴上XR设备,就能看到虚拟操作指南、实时语音指导,甚至模拟故障排查。效率高不说,还能降低出错率。✅更直观的产品展示销售团队可以给客户展示3D模型,客户不用拆箱也能"摸"清产品细节。尤其对家具、汽车、工业设备这类高价商品,沉浸式体验能大幅提升转化率。✅更智能的工作流借助GeminiAI,你可以在XR中加入语音助手、智能推荐、实时数据可视化等功能,让一线员工像"钢铁侠"一样工作。✅更环保的消费模式用户通过AR看衣服、看家具,减少退货率;通过VR参加线上展会,节省差旅成本……这些都让企业运营更可持续。三、企业如何开始部署AndroidXR?六个步骤讲清楚Step1:从你已经有的东西开始别想着一步到位买一堆头显。先看看你们公司有没有现成的Android手机、平板、Unity开发经验。因为AndroidXR是基于Android的,所以很多现有资源都能复用。开发者可以用Unity、OpenXR、WebXR来做内容;3D资产可以直接从Blender、Maya导入;App也可以直接发布到PlayStore;甚至连手势识别、空间UI、GeminiAI都内置好了,开箱即用。也就是说,你不需要从零开始,只需要找到合适的工具,组合一下就行。Step2:选好你的硬件设备目前市面上已经有几款AndroidXR兼容设备在路上了:三星ProjectMoohan头显(主打轻薄便携)Haean智能眼镜(类似AR眼镜)HTCVIVE的新一代企业MR头显而且由于AndroidXR支持跨平台,未来还会陆续有索尼、XReal、MagicLeap等厂商加入。建议企业先从小场景做起,比如:用手机和平板做3D展示用信息亭做自助导览再逐步引入头显、眼镜等设备初期做个试点项目,比如仓库培训、设备演示,验证效果后再慢慢扩大规模。Step3:安全合规不能忽视XR不只是个酷炫的技术,它也意味着更多数据采集、更多终端连接、更多潜在风险。所以企业在部署时要注意几点:是否支持加密、远程擦除、权限控制?是否能接入现有的MDM(移动设备管理)系统?数据是如何传输和存储的?是否符合隐私法规?目前AndroidXR基于Android系统,本身就有VerifiedBoot、PlayProtect等安全机制,但企业最好还是自己再做一次风险评估。Step4:把XR整合进你的系统里别让它变成孤岛。如果只是用来做个产品展示,那就太浪费了。真正的企业级XR应该能:和ERP、CRM系统打通接入实时数据仪表盘支持API调用,对接AI模型甚至整合IoT传感器、生产线数据AndroidXR支持OpenXR,几乎可以对接任何系统。你还可以通过Google的ImmersiveStream服务实现云端渲染,适合远程销售演示、客户导览等场景。Step5:别忘了培训你的员工再好的技术,没人会用也是白搭。好消息是,AndroidXR是基于Android的,所以员工对基础操作应该都不陌生。但如果你想让他们真正发挥XR的潜力,建议做点定制化培训:开发者看官方文档、参加训练营;普通用户做头显教程、模拟操作;加个GeminiAI助手提供实时帮助;再配上远程诊断、问题反馈机制。这样,员工才能真正把XR当成日常工作工具。Step6:从小处试水,逐步放大XR并不是一次性投资,而是一个持续迭代的过程。建议企业先选一个小场景试点,比如:新员工培训客户产品演示虚拟巡检维修然后根据使用情况收集数据,看看哪些功能受欢迎,哪些体验不好,再优化调整。你还可以让GeminiAI帮你分析数据趋势,生成报告给管理层参考。四、结语:XR正在成为企业标配XR不再是科幻电影里的黑科技,也不是只有大厂才玩得起的昂贵玩具。随着AndroidXR的推出,越来越多的企业可以低成本地接入这一新兴技术,并将其融入自己的业务流程中。无论是提升效率、增强体验,还是推动数字化转型,XR都将成为未来几年不可忽视的技术力量。所以,与其观望,不如现在就开始了解、尝试、小步快跑地推进。毕竟,谁也不想等到别人已经开始规模化用了,自己还在研究"这是啥"。
继去年首次推出AndroidXRSDK(软件开发工具包)后,谷歌于近日发布了其第二个开发者预览版本(DeveloperPreview2)。这一更新带来了多项新功能和改进,包括更广泛的沉浸式视频支持、更强的自适应用户界面布局、ARCore对手部追踪的支持等。该版本在GoogleI/O2025大会上正式宣布,标志着谷歌进一步推动其在扩展现实(XR)领域的战略布局。此次更新旨在为开发者提供一套更加标准化、统一的工具链,帮助他们既可以开发原生的XR应用程序,也能将现有的Android应用轻松适配到头显设备上。支持180°与360°立体视频播放(基于MV-HEVC编码)新版AndroidXRSDK引入了对MV-HEVC格式的支持,允许播放高质量的180°和360°立体沉浸式视频。MV-HEVC是目前最流行的3D视频编码格式之一,专为高画质沉浸式内容优化,适用于VR影视、虚拟旅游、教育等多个场景。JetpackCompose支持XR:打造统一UI布局谷歌还宣布将JetpackCompose扩展至XR平台,使开发者能够通过SubspaceModifier和SpatialExternalSurface等工具,在各种XR显示设备上实现自适应的用户界面布局。JetpackCompose是谷歌推出的声明式UI工具集,致力于在手机、平板和沉浸式设备之间统一UI设计语言。如今,它也正式成为构建跨平台XR应用的重要组成部分。ARCoreforJetpackXR新增手部追踪功能本次更新中,ARCoreforJetpackXR的一大亮点是引入了对手部追踪的支持,涵盖26个关键关节点(jointpose),可实现基于手势的交互操作。谷歌为此提供了更新的示例代码、性能基准测试工具以及详细的集成指南,帮助开发者快速将手部追踪功能整合进应用中。MaterialDesignforXR进一步拓展谷歌还在其MaterialDesign设计体系中加入了更多面向XR的优化,表示这将有助于"让大屏应用无缝适应XR新世界"。这意味着未来的Material风格UI将更好地适配VR/AR设备,带来一致且美观的视觉体验。开发者仍需依赖模拟器进行测试尽管AndroidXR正在快速发展,但目前大多数开发者尚未能接触到官方认证的AndroidXR头显设备。谷歌计划在今年晚些时候推出搭载AndroidXR的设备,包括三星的混合现实头显ProjectMoohan和XREAL的增强现实眼镜ProjectAura。因此,AndroidXR模拟器成为了开发者不可或缺的工具。谷歌也在本次更新中大幅优化了模拟器功能,新增了对AMDGPU的支持、提升了稳定性,并与AndroidStudio实现更紧密的集成,从而改善整体的XR应用测试与开发流程。Unity支持升级:提升性能与模板能力作为当前最受欢迎的XR开发引擎,Unity也推出了其OpenXR插件第2版本的预发布版,带来了多项性能优化:动态刷新率控制(DynamicRefreshRate)ShaderGraph支持SpaceWarp技术(用于提升帧率表现)此外,Unity的MixedReality模板也进行了重大升级,新增了真实感手部网格遮挡(handmeshocclusion)和持久锚点(persistentanchors)等功能。谷歌还发布了针对Unity的AndroidXR示例库(Samples),展示了如何在实际项目中集成手部追踪、平面追踪、面部追踪及透视显示(passthrough)等核心功能,为开发者提供了一个良好的起点。谷歌AndroidXR眼镜即将登场虽然AndroidXR在今年的GoogleI/O上并未成为焦点,但谷歌仍在持续推进其生态建设,不仅将其扩展至更多合作伙伴设备,还计划在未来推出由WarbyParker和GentleMonster联合设计的AndroidXR智能眼镜。据透露,谷歌将推出两种主要型号:一款外观与功能与Ray-BanMeta智能眼镜相似的产品;另一款则配备了内置显示屏,支持执行基本任务,如阅读短信、查看照片与视频、导航等。如何获取更多信息?你可以在AndroidXRDeveloperPreview官方页面获取有关当前所有工具与更新的详细信息,包括完整的API文档、示例项目、最佳实践指南等。
近日,AR硬件厂商Xreal正式宣布了其最新产品ProjectAura--一款将通过"有线连接计算设备"方式运行Google全新操作系统AndroidXR的新型AR眼镜。此次发布正值Google在I/O大会上正式推出AndroidXR系统之际。作为继三星头显之后第二款曝光的AndroidXR设备,ProjectAura成为了首款采用"光学透视(OpticalSee-Through)"技术的透明显示屏眼镜产品。尽管Xreal尚未公布有关该产品的具体细节,但公司已分享了一张设计图,并确认该设备将通过"有线连接"的方式运行AndroidXR系统,搭载高通Snapdragon芯片提供运算支持。目前Xreal并未透露"运算单元"的具体形式。它是否将以独立设备形式存在,例如此前推出的XrealBeamPro?还是可能集成于某些Android手机中,像三星GalaxyS系列手机对XrealAir2Ultra的6DoF支持那样?这些问题目前尚未揭晓。设计解析:类似XrealOne,但更具交互能力从公开的设计图来看,ProjectAura的外观与现有的3DoF版本XrealOne显示眼镜相似,但在镜腿和镜框中央增加了多个摄像头:每侧镜腿上各有一个略微向下倾斜的摄像头;镜片中间还有一个面向前方的摄像头。这些摄像头的功能推测如下:两侧摄像头可能用于实现6DoF(六自由度)空间定位和手势追踪;中央摄像头则可能用于拍照、录像,以及与GoogleGeminiAI结合的多模态交互体验。技术差异:Birdbathvs波导,Xreal的轻量化选择虽然Xreal的眼镜在外观上模仿了太阳镜的设计,但它们距离眼睛的距离比普通眼镜要远得多,因此与Meta和Apple正在研发的未来AR眼镜属于不同的产品类别。Meta和苹果未来的AR眼镜采用了名为波导(Waveguide)的高端显示技术,使镜片尽可能贴近眼睛,从而实现更自然的视野和更轻便的佩戴体验。而Xreal使用的是成本更低、但体积更大的Birdbath(鸟浴)光学方案。这种方案虽然在重量和体积上有所牺牲,但能以相对较低的成本实现较大的视场角,更适合当前阶段的消费级市场探索。未来计划:AWE大会即将揭晓更多细节Xreal表示,将在今年6月举行的增强现实盛会AugmentedWorldExpo(AWE)上披露更多关于ProjectAura的详细信息。届时我们也将亲临现场,为你带来这款"运行AndroidXR系统的眼镜"背后的更多真相。
下周(5月20日至21日),谷歌年度开发者大会GoogleI/O2025将正式拉开帷幕,届时这家科技巨头将展示其在人工智能、扩展现实(XR)等领域的最新成果。继近期推出AndroidXR生态系统后,谷歌在VR、AR和MR领域的布局将成为本次大会的重要焦点之一。此外,AI作为谷歌的核心技术基础,也将继续与XR深度融合,成为推动人机交互变革的关键力量。AndroidXR或成I/O大会亮点根据GoogleI/O官方页面信息,5月20日的主题演讲预计将涉及XR相关内容,尤其是围绕谷歌正在推进的AndroidXR平台及其在整个产品体系中的定位展开讨论。当天还将举行一场面向开发者的主题演讲,预计也会涵盖XR技术相关内容。除此之外,谷歌还将举办一场名为:"使用3D内容构建差异化的AndroidXR应用"的专题会议该会议将由谷歌开发者关系工程师DereckBridié与PatrickFuentes共同主持,介绍如何利用3D内容为AndroidXR应用增添独特价值。本场会议将重点介绍JetpackSceneCore与ARCoreforJetpackXR,并指导开发者如何在现有应用中融入沉浸式内容,如3D模型、立体视频以及手势追踪等功能。据官方介绍:"参与者将了解AndroidXRSDK开发者预览版中的新功能。"值得一提的是,活动页面还透露:AndroidXR的公众版本将于今年晚些时候正式发布。AndroidXR团队负责人宣布AI与XR融合进入"第二幕"此次GoogleI/O的召开正值谷歌大力推广AndroidXR的关键时期。此前,在TED2025大会上,谷歌AndroidXR项目负责人ShahramIzadi公开展示了即将推出的智能眼镜操作系统,并现场演示了一副原型智能眼镜设备。这款眼镜支持实时翻译、图像识别,并能与其他Android设备无缝连接,展现了新一代系统的创新潜力,预计将在明年正式推出。Izadi表示:"增强现实和虚拟现实已经将计算从矩形屏幕带入了360°的沉浸式空间,而现在,整个世界本身都成为了显示界面。我们将这一广泛的体验集合称为'扩展现实',即XR。"他还补充道:"迄今为止,这些创新往往是孤立发展的。现在,我们正迎来计算革命的'第二幕'--人工智能(AI)与扩展现实(XR)开始融合,这将释放出一系列以用户为中心、前所未有的交互方式。"关于AndroidXR:谷歌的下一代XR操作系统谷歌于去年底正式发布了AndroidXR,这是专为扩展现实打造的新一代操作系统。在当时的发布会上,公司强调了GeminiAI助手在提升头显设备交互体验方面的作用。基于熟悉的Android架构,AndroidXR支持大量现有的手机与平板应用,同时也兼容专为该平台设计的内容。此举旨在解决XR技术普及的一大障碍:用户需要丰富的应用与服务来支撑对XR设备的投资决策。AndroidXR操作系统旨在推动人工智能、增强现实与虚拟现实在头戴设备与智能眼镜上的未来发展。目前该系统仅向开发者开放预览版,预计未来将面向更广泛用户发布。有意参与开发的开发者可借助包括ARCore、AndroidStudio、JetpackCompose、Unity和OpenXR等熟悉工具进行项目构建。谷歌与HTCVIVE达成战略合作,加速XR布局此外,谷歌已与全球领先的XR厂商HTCVive达成一项具有决定意义的战略合作,投资2.5亿美元,以获取HTC在XR领域的专业支持。部分HTC的XR团队成员也将加入谷歌,协助其开发自有XR解决方案。有报道称,谷歌目前正在与少数用户测试AndroidXR智能眼镜原型设备,重点关注隐私保护、灵活性与用户体验等方面。与此同时,包括三星、MagicLeap、Lynx、索尼、高通、XREAL等在内的多家领先企业也正在积极参与AndroidXR平台的建设与发展。📌总结随着GoogleI/O2025的临近,外界对谷歌在AI与XR融合方面的进展充满期待。AndroidXR不仅是谷歌在XR领域迈出的关键一步,也标志着AI与扩展现实深度融合的"第二幕"正式开启。随着更多合作伙伴的加入与生态系统的逐步完善,一个全新的、以人为中心的计算时代正在悄然来临。