继去年首次推出AndroidXRSDK(软件开发工具包)后,谷歌于近日发布了其第二个开发者预览版本(DeveloperPreview2)。这一更新带来了多项新功能和改进,包括更广泛的沉浸式视频支持、更强的自适应用户界面布局、ARCore对手部追踪的支持等。该版本在GoogleI/O2025大会上正式宣布,标志着谷歌进一步推动其在扩展现实(XR)领域的战略布局。此次更新旨在为开发者提供一套更加标准化、统一的工具链,帮助他们既可以开发原生的XR应用程序,也能将现有的Android应用轻松适配到头显设备上。支持180°与360°立体视频播放(基于MV-HEVC编码)新版AndroidXRSDK引入了对MV-HEVC格式的支持,允许播放高质量的180°和360°立体沉浸式视频。MV-HEVC是目前最流行的3D视频编码格式之一,专为高画质沉浸式内容优化,适用于VR影视、虚拟旅游、教育等多个场景。JetpackCompose支持XR:打造统一UI布局谷歌还宣布将JetpackCompose扩展至XR平台,使开发者能够通过SubspaceModifier和SpatialExternalSurface等工具,在各种XR显示设备上实现自适应的用户界面布局。JetpackCompose是谷歌推出的声明式UI工具集,致力于在手机、平板和沉浸式设备之间统一UI设计语言。如今,它也正式成为构建跨平台XR应用的重要组成部分。ARCoreforJetpackXR新增手部追踪功能本次更新中,ARCoreforJetpackXR的一大亮点是引入了对手部追踪的支持,涵盖26个关键关节点(jointpose),可实现基于手势的交互操作。谷歌为此提供了更新的示例代码、性能基准测试工具以及详细的集成指南,帮助开发者快速将手部追踪功能整合进应用中。MaterialDesignforXR进一步拓展谷歌还在其MaterialDesign设计体系中加入了更多面向XR的优化,表示这将有助于"让大屏应用无缝适应XR新世界"。这意味着未来的Material风格UI将更好地适配VR/AR设备,带来一致且美观的视觉体验。开发者仍需依赖模拟器进行测试尽管AndroidXR正在快速发展,但目前大多数开发者尚未能接触到官方认证的AndroidXR头显设备。谷歌计划在今年晚些时候推出搭载AndroidXR的设备,包括三星的混合现实头显ProjectMoohan和XREAL的增强现实眼镜ProjectAura。因此,AndroidXR模拟器成为了开发者不可或缺的工具。谷歌也在本次更新中大幅优化了模拟器功能,新增了对AMDGPU的支持、提升了稳定性,并与AndroidStudio实现更紧密的集成,从而改善整体的XR应用测试与开发流程。Unity支持升级:提升性能与模板能力作为当前最受欢迎的XR开发引擎,Unity也推出了其OpenXR插件第2版本的预发布版,带来了多项性能优化:动态刷新率控制(DynamicRefreshRate)ShaderGraph支持SpaceWarp技术(用于提升帧率表现)此外,Unity的MixedReality模板也进行了重大升级,新增了真实感手部网格遮挡(handmeshocclusion)和持久锚点(persistentanchors)等功能。谷歌还发布了针对Unity的AndroidXR示例库(Samples),展示了如何在实际项目中集成手部追踪、平面追踪、面部追踪及透视显示(passthrough)等核心功能,为开发者提供了一个良好的起点。谷歌AndroidXR眼镜即将登场虽然AndroidXR在今年的GoogleI/O上并未成为焦点,但谷歌仍在持续推进其生态建设,不仅将其扩展至更多合作伙伴设备,还计划在未来推出由WarbyParker和GentleMonster联合设计的AndroidXR智能眼镜。据透露,谷歌将推出两种主要型号:一款外观与功能与Ray-BanMeta智能眼镜相似的产品;另一款则配备了内置显示屏,支持执行基本任务,如阅读短信、查看照片与视频、导航等。如何获取更多信息?你可以在AndroidXRDeveloperPreview官方页面获取有关当前所有工具与更新的详细信息,包括完整的API文档、示例项目、最佳实践指南等。
下周(5月20日至21日),谷歌年度开发者大会GoogleI/O2025将正式拉开帷幕,届时这家科技巨头将展示其在人工智能、扩展现实(XR)等领域的最新成果。继近期推出AndroidXR生态系统后,谷歌在VR、AR和MR领域的布局将成为本次大会的重要焦点之一。此外,AI作为谷歌的核心技术基础,也将继续与XR深度融合,成为推动人机交互变革的关键力量。AndroidXR或成I/O大会亮点根据GoogleI/O官方页面信息,5月20日的主题演讲预计将涉及XR相关内容,尤其是围绕谷歌正在推进的AndroidXR平台及其在整个产品体系中的定位展开讨论。当天还将举行一场面向开发者的主题演讲,预计也会涵盖XR技术相关内容。除此之外,谷歌还将举办一场名为:"使用3D内容构建差异化的AndroidXR应用"的专题会议该会议将由谷歌开发者关系工程师DereckBridié与PatrickFuentes共同主持,介绍如何利用3D内容为AndroidXR应用增添独特价值。本场会议将重点介绍JetpackSceneCore与ARCoreforJetpackXR,并指导开发者如何在现有应用中融入沉浸式内容,如3D模型、立体视频以及手势追踪等功能。据官方介绍:"参与者将了解AndroidXRSDK开发者预览版中的新功能。"值得一提的是,活动页面还透露:AndroidXR的公众版本将于今年晚些时候正式发布。AndroidXR团队负责人宣布AI与XR融合进入"第二幕"此次GoogleI/O的召开正值谷歌大力推广AndroidXR的关键时期。此前,在TED2025大会上,谷歌AndroidXR项目负责人ShahramIzadi公开展示了即将推出的智能眼镜操作系统,并现场演示了一副原型智能眼镜设备。这款眼镜支持实时翻译、图像识别,并能与其他Android设备无缝连接,展现了新一代系统的创新潜力,预计将在明年正式推出。Izadi表示:"增强现实和虚拟现实已经将计算从矩形屏幕带入了360°的沉浸式空间,而现在,整个世界本身都成为了显示界面。我们将这一广泛的体验集合称为'扩展现实',即XR。"他还补充道:"迄今为止,这些创新往往是孤立发展的。现在,我们正迎来计算革命的'第二幕'--人工智能(AI)与扩展现实(XR)开始融合,这将释放出一系列以用户为中心、前所未有的交互方式。"关于AndroidXR:谷歌的下一代XR操作系统谷歌于去年底正式发布了AndroidXR,这是专为扩展现实打造的新一代操作系统。在当时的发布会上,公司强调了GeminiAI助手在提升头显设备交互体验方面的作用。基于熟悉的Android架构,AndroidXR支持大量现有的手机与平板应用,同时也兼容专为该平台设计的内容。此举旨在解决XR技术普及的一大障碍:用户需要丰富的应用与服务来支撑对XR设备的投资决策。AndroidXR操作系统旨在推动人工智能、增强现实与虚拟现实在头戴设备与智能眼镜上的未来发展。目前该系统仅向开发者开放预览版,预计未来将面向更广泛用户发布。有意参与开发的开发者可借助包括ARCore、AndroidStudio、JetpackCompose、Unity和OpenXR等熟悉工具进行项目构建。谷歌与HTCVIVE达成战略合作,加速XR布局此外,谷歌已与全球领先的XR厂商HTCVive达成一项具有决定意义的战略合作,投资2.5亿美元,以获取HTC在XR领域的专业支持。部分HTC的XR团队成员也将加入谷歌,协助其开发自有XR解决方案。有报道称,谷歌目前正在与少数用户测试AndroidXR智能眼镜原型设备,重点关注隐私保护、灵活性与用户体验等方面。与此同时,包括三星、MagicLeap、Lynx、索尼、高通、XREAL等在内的多家领先企业也正在积极参与AndroidXR平台的建设与发展。📌总结随着GoogleI/O2025的临近,外界对谷歌在AI与XR融合方面的进展充满期待。AndroidXR不仅是谷歌在XR领域迈出的关键一步,也标志着AI与扩展现实深度融合的"第二幕"正式开启。随着更多合作伙伴的加入与生态系统的逐步完善,一个全新的、以人为中心的计算时代正在悄然来临。