自去年9月正式推出以来,Meta已对其SpatialSDK进行了多项重要改进。这款开发工具旨在让开发者能够使用现有的Android移动应用开发工具(而非传统的游戏引擎如Unity、Unreal或Godot)来构建适用于HorizonOS的应用。这意味着开发者可以继续使用熟悉的工具链,包括:AndroidStudioKotlin编程语言现有的移动框架和库这些工具不仅降低了上手门槛,也为更广泛的Android开发者群体打开了通往元宇宙的大门。🧩HorizonOSUI组件集上线,提升界面一致性早在去年,Meta就为Unity开发者推出了一个UI套件,帮助其构建符合Quest系统设计语言的应用界面。对于消费级操作系统来说,UI套件是开发工具中不可或缺的一部分,它确保第三方应用在视觉和交互上与系统保持一致,从而提供更统一的用户体验。如今,MetaSpatialSDK也加入了HorizonOSUI组件集,这意味着使用该SDK构建应用的开发者无需从零开始设计界面,也能获得与系统一致的外观和体验。这一更新特别有助于非游戏类应用的开发,例如工具类、生产力类或生活服务类应用,使它们在Quest平台上更容易被用户接受和使用。👐InteractionSDK(Beta版本):标准化交互方式,提升用户体验一致性虽然统一的UI设计提升了系统的美观性,但在XR(扩展现实)环境中,交互的一致性往往更为关键。Meta自2022年初就为Unity提供了InteractionSDK,并在去年将其扩展至Unreal引擎。该SDK包含以下功能:直接抓取与持握物体远距离抓取可点击的2D和3D按钮传送机制手势识别等对开发者而言,这意味着无需重复实现这些常见交互逻辑;对终端用户来说,则意味着不同应用之间的操作更加统一,无需反复学习新交互方式。现在,InteractionSDK已作为Beta功能集成进SpatialSDK,取代原有的输入系统,使基于SpatialSDK开发的应用也能享受到与Unity和Unreal开发者相同的交互一致性。⚡性能优化:复杂场景下仍可稳定运行于90fpsMeta表示,已对系统脚本进行了性能优化,并声称:"SpatialSDK应用现在可以更稳定地维持流畅的90fps帧率--即使在处理复杂场景时也不例外。"此外:"更快的ECS查询机制和新增的高级过滤支持,使得开发者可以编写更智能、更高效的逻辑代码,而不会牺牲性能。无论你是在构建高度互动的环境,还是需要频繁更新大量实体对象,这些改进都让打造丰富且沉浸式的混合现实体验变得更加轻松。"📷穿透摄像头访问权限开放:增强现实能力再升级今年早些时候,Meta已向Unity和原生应用开发者开放了Quest3和Quest3S的彩色穿透摄像头访问权限。这项功能的应用场景非常广泛,例如:扫描和追踪二维码检测桌面上的游戏板并叠加虚拟角色与对象在企业引导体验中检测物理对象集成基于云端大模型的视觉AI功能对于使用SpatialSDK的开发者,Meta推出了一个开源的SpatialScanner示例项目,展示了如何以高性能方式实现上述功能。🧰AndroidStudio插件发布:简化开发流程为了进一步提升AndroidStudio(Google官方Android开发IDE)用户的开发效率,Meta发布了一个名为AndroidStudioPlugin(ASP)的插件。该插件宣称:"通过提供项目模板、数据模型检查器以及组件/系统文件模板,显著提升了使用SpatialSDK的开发体验。"Meta表示:"对于新项目,只需下载安装插件并选择我们的模板,即可快速完成初始化设置。"🎨SpatialEditor2.0:无须游戏引擎也能高效编辑2D/3D内容自去年10月推出以来,Meta就为其SpatialSDK提供了SpatialEditor,这是一款无需使用游戏引擎编辑器即可进行2D和3D元素布局、缩放和排列的可视化工具,类似于Apple为visionOS提供的RealityComposerPro。而在最新的SpatialEditor2.0中,Meta引入了:"一种新的组件系统,允许开发者使用XML来定义和管理组件,从而提升灵活性",并可根据XML输入生成Kotlin组件代码。这一更新大大增强了开发者在构建结构化应用时的可控性和效率。🎬PremiumMediaSample:媒体类应用开发更轻松Meta表示,使用SpatialSDK构建最流行的应用之一就是简单的媒体播放器,例如:3D照片查看器360°视频播放器为此,Meta在GitHub上发布了"PremiumMediaSample"示例项目,展示如何流式传输180°、3D以及受DRM保护的内容。此外,官方文档中还新增了一个专门章节,详细介绍了媒体播放相关的技术细节和最佳实践。📌编者按:随着Meta不断推进SpatialSDK的功能完善,越来越多的开发者可以在不依赖传统游戏引擎的前提下,构建高质量的混合现实应用。无论是UI设计、交互控制、性能优化,还是媒体播放,Meta正在逐步将SpatialSDK打造成一套完整的开发体系,为未来的空间计算生态奠定基础。
好消息传来:使用Godot引擎开发的游戏现在已经可以在visionOS上以窗口模式运行。而据透露,对苹果VisionPro设备的沉浸式扩展现实(XR)支持也计划在今年晚些时候推出。如果你还不熟悉,Godot是一款免费且开源的游戏引擎,被视为Unity和UnrealEngine的替代方案。它由非营利组织GodotFoundation管理,但所有代码开发都是完全公开进行的,任何人都可以参与贡献。苹果工程师为Godot提交visionOS支持代码上个月,一位来自苹果visionOS工程团队的员工,在Godot的GitHub仓库中提交了一个大型PullRequest(PR)。这项请求包含数千行新增代码,旨在为Godot添加对visionOS的原生支持,并附有一封请求将该功能合并进主分支的说明文档。这一举动引发了Godot社区的热烈讨论,反应不一。有开发者表示:"测试所需的硬件极其昂贵",并质疑核心开发团队是否"有兴趣长期维护visionOS支持"。还有人提出疑问:为什么visionOS应该作为核心功能集成,而不是通过插件或扩展实现?毕竟,每次添加新平台都需要持续维护和测试,这是一项不小的任务。核心开发者力挺visionOS支持:必须整合进引擎核心Godot的XR功能主要开发者之一BastiaanOlij对这些担忧提出了反驳。他在评论中称这个PR是"一个令人惊叹的里程碑",并对苹果的贡献表示感谢。Olij承认审查和测试这些代码将是"一项艰巨的任务",但他从技术角度指出:visionOS的支持只有整合进引擎核心才可行,无法通过插件来实现。最终,他的观点赢得了大多数人的认同。你可以看到,在该PR下,整个Godot社区齐心协力解决了各种问题,最终成功将visionOS的初始支持代码合并进了Godot的主分支。目前,visionOS支持还仅限于窗口模式运行游戏。完整的沉浸式XR支持则计划通过后续的插件形式提供。需要注意的是,尽管visionOS的代码已经合并,但它尚未出现在预编译的Godot发布版本中。不过,任何愿意从源码编译引擎的开发者,现在就可以开始为visionOS构建应用了。Godot已广泛支持主流XR平台得益于其对OpenXR协议的支持,Godot目前已经全面兼容多个XR平台,包括:PC上的SteamVR所有主流Android独立头显设备还实现了Meta特定的OpenXR扩展,支持Quest系列的多种高级功能,如:空间锚点(SpatialAnchors)内向外身体追踪(Inside-outBodyTracking)值得一提的是,BastiaanOlij曾表示,Godot在OpenXR方面的功能质量与广度,"极大地受益于Meta在资金和技术上的支持",这些改进不仅提升了MetaQuest用户的体验,也惠及其他XR平台。甚至在去年,一位来自Meta的工程师还发布了Godot编辑器本身在HorizonOS上的移植版本,这意味着你现在已经可以在Quest3和QuestPro上直接开发完整的VR游戏,无需连接电脑。visionOS不支持OpenXR,带来额外挑战然而,值得注意的是:AppleVisionPro并不支持OpenXR。这让为其添加支持变得比预期更加复杂--如果它支持OpenXR,很多工作本可以更轻松地完成。
继去年首次推出AndroidXRSDK(软件开发工具包)后,谷歌于近日发布了其第二个开发者预览版本(DeveloperPreview2)。这一更新带来了多项新功能和改进,包括更广泛的沉浸式视频支持、更强的自适应用户界面布局、ARCore对手部追踪的支持等。该版本在GoogleI/O2025大会上正式宣布,标志着谷歌进一步推动其在扩展现实(XR)领域的战略布局。此次更新旨在为开发者提供一套更加标准化、统一的工具链,帮助他们既可以开发原生的XR应用程序,也能将现有的Android应用轻松适配到头显设备上。支持180°与360°立体视频播放(基于MV-HEVC编码)新版AndroidXRSDK引入了对MV-HEVC格式的支持,允许播放高质量的180°和360°立体沉浸式视频。MV-HEVC是目前最流行的3D视频编码格式之一,专为高画质沉浸式内容优化,适用于VR影视、虚拟旅游、教育等多个场景。JetpackCompose支持XR:打造统一UI布局谷歌还宣布将JetpackCompose扩展至XR平台,使开发者能够通过SubspaceModifier和SpatialExternalSurface等工具,在各种XR显示设备上实现自适应的用户界面布局。JetpackCompose是谷歌推出的声明式UI工具集,致力于在手机、平板和沉浸式设备之间统一UI设计语言。如今,它也正式成为构建跨平台XR应用的重要组成部分。ARCoreforJetpackXR新增手部追踪功能本次更新中,ARCoreforJetpackXR的一大亮点是引入了对手部追踪的支持,涵盖26个关键关节点(jointpose),可实现基于手势的交互操作。谷歌为此提供了更新的示例代码、性能基准测试工具以及详细的集成指南,帮助开发者快速将手部追踪功能整合进应用中。MaterialDesignforXR进一步拓展谷歌还在其MaterialDesign设计体系中加入了更多面向XR的优化,表示这将有助于"让大屏应用无缝适应XR新世界"。这意味着未来的Material风格UI将更好地适配VR/AR设备,带来一致且美观的视觉体验。开发者仍需依赖模拟器进行测试尽管AndroidXR正在快速发展,但目前大多数开发者尚未能接触到官方认证的AndroidXR头显设备。谷歌计划在今年晚些时候推出搭载AndroidXR的设备,包括三星的混合现实头显ProjectMoohan和XREAL的增强现实眼镜ProjectAura。因此,AndroidXR模拟器成为了开发者不可或缺的工具。谷歌也在本次更新中大幅优化了模拟器功能,新增了对AMDGPU的支持、提升了稳定性,并与AndroidStudio实现更紧密的集成,从而改善整体的XR应用测试与开发流程。Unity支持升级:提升性能与模板能力作为当前最受欢迎的XR开发引擎,Unity也推出了其OpenXR插件第2版本的预发布版,带来了多项性能优化:动态刷新率控制(DynamicRefreshRate)ShaderGraph支持SpaceWarp技术(用于提升帧率表现)此外,Unity的MixedReality模板也进行了重大升级,新增了真实感手部网格遮挡(handmeshocclusion)和持久锚点(persistentanchors)等功能。谷歌还发布了针对Unity的AndroidXR示例库(Samples),展示了如何在实际项目中集成手部追踪、平面追踪、面部追踪及透视显示(passthrough)等核心功能,为开发者提供了一个良好的起点。谷歌AndroidXR眼镜即将登场虽然AndroidXR在今年的GoogleI/O上并未成为焦点,但谷歌仍在持续推进其生态建设,不仅将其扩展至更多合作伙伴设备,还计划在未来推出由WarbyParker和GentleMonster联合设计的AndroidXR智能眼镜。据透露,谷歌将推出两种主要型号:一款外观与功能与Ray-BanMeta智能眼镜相似的产品;另一款则配备了内置显示屏,支持执行基本任务,如阅读短信、查看照片与视频、导航等。如何获取更多信息?你可以在AndroidXRDeveloperPreview官方页面获取有关当前所有工具与更新的详细信息,包括完整的API文档、示例项目、最佳实践指南等。