继去年首次推出AndroidXRSDK(软件开发工具包)后,谷歌于近日发布了其第二个开发者预览版本(DeveloperPreview2)。这一更新带来了多项新功能和改进,包括更广泛的沉浸式视频支持、更强的自适应用户界面布局、ARCore对手部追踪的支持等。该版本在GoogleI/O2025大会上正式宣布,标志着谷歌进一步推动其在扩展现实(XR)领域的战略布局。此次更新旨在为开发者提供一套更加标准化、统一的工具链,帮助他们既可以开发原生的XR应用程序,也能将现有的Android应用轻松适配到头显设备上。支持180°与360°立体视频播放(基于MV-HEVC编码)新版AndroidXRSDK引入了对MV-HEVC格式的支持,允许播放高质量的180°和360°立体沉浸式视频。MV-HEVC是目前最流行的3D视频编码格式之一,专为高画质沉浸式内容优化,适用于VR影视、虚拟旅游、教育等多个场景。JetpackCompose支持XR:打造统一UI布局谷歌还宣布将JetpackCompose扩展至XR平台,使开发者能够通过SubspaceModifier和SpatialExternalSurface等工具,在各种XR显示设备上实现自适应的用户界面布局。JetpackCompose是谷歌推出的声明式UI工具集,致力于在手机、平板和沉浸式设备之间统一UI设计语言。如今,它也正式成为构建跨平台XR应用的重要组成部分。ARCoreforJetpackXR新增手部追踪功能本次更新中,ARCoreforJetpackXR的一大亮点是引入了对手部追踪的支持,涵盖26个关键关节点(jointpose),可实现基于手势的交互操作。谷歌为此提供了更新的示例代码、性能基准测试工具以及详细的集成指南,帮助开发者快速将手部追踪功能整合进应用中。MaterialDesignforXR进一步拓展谷歌还在其MaterialDesign设计体系中加入了更多面向XR的优化,表示这将有助于"让大屏应用无缝适应XR新世界"。这意味着未来的Material风格UI将更好地适配VR/AR设备,带来一致且美观的视觉体验。开发者仍需依赖模拟器进行测试尽管AndroidXR正在快速发展,但目前大多数开发者尚未能接触到官方认证的AndroidXR头显设备。谷歌计划在今年晚些时候推出搭载AndroidXR的设备,包括三星的混合现实头显ProjectMoohan和XREAL的增强现实眼镜ProjectAura。因此,AndroidXR模拟器成为了开发者不可或缺的工具。谷歌也在本次更新中大幅优化了模拟器功能,新增了对AMDGPU的支持、提升了稳定性,并与AndroidStudio实现更紧密的集成,从而改善整体的XR应用测试与开发流程。Unity支持升级:提升性能与模板能力作为当前最受欢迎的XR开发引擎,Unity也推出了其OpenXR插件第2版本的预发布版,带来了多项性能优化:动态刷新率控制(DynamicRefreshRate)ShaderGraph支持SpaceWarp技术(用于提升帧率表现)此外,Unity的MixedReality模板也进行了重大升级,新增了真实感手部网格遮挡(handmeshocclusion)和持久锚点(persistentanchors)等功能。谷歌还发布了针对Unity的AndroidXR示例库(Samples),展示了如何在实际项目中集成手部追踪、平面追踪、面部追踪及透视显示(passthrough)等核心功能,为开发者提供了一个良好的起点。谷歌AndroidXR眼镜即将登场虽然AndroidXR在今年的GoogleI/O上并未成为焦点,但谷歌仍在持续推进其生态建设,不仅将其扩展至更多合作伙伴设备,还计划在未来推出由WarbyParker和GentleMonster联合设计的AndroidXR智能眼镜。据透露,谷歌将推出两种主要型号:一款外观与功能与Ray-BanMeta智能眼镜相似的产品;另一款则配备了内置显示屏,支持执行基本任务,如阅读短信、查看照片与视频、导航等。如何获取更多信息?你可以在AndroidXRDeveloperPreview官方页面获取有关当前所有工具与更新的详细信息,包括完整的API文档、示例项目、最佳实践指南等。