技术

Meta自研Horizon Engine首曝:告别Unity,能否重塑元宇宙入口?

  • 2025-10-05
  • Meta 自主研发的 Horizon Engine 首次披露核心技术架构,标志着其在构建元宇宙底层能力上的关键一步。该引擎在 Connect 2025 大会亮相后,被确认将全面取代 Unity,成为 Horizon Worlds 以及 Quest 新版沉浸式主界面(Immersive Home)的核心动力。

    目前,新版沉浸式主界面已随 Horizon OS v81 推送,但仅限于公共测试频道(PTC)用户;而 Horizon Worlds 中的 Horizon Engine 支持则依赖即将上线的 Horizon Studio,现阶段仅限 Meta 自研的少数官方世界使用。尽管 CEO 扎克伯格在发布会上宣称,该引擎为“从零构建”,可实现世界加载速度提升 4 倍、单实例支持超百名用户,但当时并未透露具体技术细节。

    如今,Meta 通过官方博客首次系统性地公开了 Horizon Engine 的核心模块设计。

    从云端到移动端:跨平台渲染与资源调度

    Meta 强调,Horizon Engine 具备“从高端云端渲染到移动端运行”的自动适配能力。这意味着同一套引擎可在不同性能设备上动态调整表现,兼顾视觉质量与运行效率。引擎支持“单共享空间内大规模实时虚拟形象聚集”、可流式加载的广阔环境(以子关卡形式),并通过自动生成的 LOD(细节层次)系统自动管理对象质量。

    这一特性背后,是资源管理模块的深度优化:引擎内置资源管理器、流式加载系统和多线程任务调度框架,能够在 Quest 及其他平台的性能波动范围内,动态平衡画质与成本,保障用户体验的稳定性。

    核心技术栈解析:模块化与创作者友好

    Meta 详细拆解了 Horizon Engine 的八大核心系统,展现出其对性能、扩展性与创作效率的综合考量:

    • 资产系统:采用数据驱动、创作者可控的资产管线,兼容主流工具链,包括 PopcornFX(特效)、FMOD(音频)、Noesis(UI)和 PhysX(物理)等成熟中间件,降低创作门槛。

    • 音频系统:集成空间化音频,将场景音效、沉浸式媒体格式与混合式语音通话(VoIP)无缝融合,构建统一的听觉沉浸体验。

    • 虚拟形象系统:深度集成 Meta Avatars,确保跨平台化身表现与交互行为的一致性,并支持跨实例的联网人群系统。

    • 网络架构:基于“角色”(actor)的可扩展、安全网络拓扑,结合服务器验证与低延迟的玩家预测交互,允许创作者自定义网络化组件,提升多人互动的流畅性。

    • 渲染系统:面向移动设备与 VR 优先的前向渲染器,具备基于物理的着色模型、内置光照烘焙工具、探针定义的动态光照,以及通过可扩展、可堆叠表面着色器系统实现的创作者自定义材质框架。

    • 脚本系统:采用可扩展的 TypeScript 开发环境,统一世界中的逻辑与控制流,支持自定义组件与清晰的实体生命周期管理。

    • 模拟系统:基于数据导向的 ECS(实体-组件-系统)架构,可高效模拟数百万个联网实体,为大规模互动场景提供底层支持。

    移动端原生渲染的潜在战略转向

    一个值得注意的细节是,Meta 明确提到引擎“可在手机上运行”。目前,手机端的 Horizon Worlds 依赖云端串流,不仅对用户网络要求高,也给 Meta 带来显著的运营成本。若未来转向手机端原生渲染,不仅能大幅提升响应速度与稳定性,还能显著降低服务成本。

    这一转变或将增强 Meta 在社交游戏领域的竞争力,使其更直接地对标《堡垒之夜》(Fortnite)和《Roblox》等跨平台创作生态。通过自研引擎掌控全栈技术,Meta 正试图摆脱对第三方引擎的依赖,在元宇宙入口的争夺中掌握更多主动权。

    共 0 条评分
  • 热度
  • 最新
  • 最早
  • 没有更多啦

    VR52

    VR52网成立于2015年,平台提供VR头显、AR眼镜、配件外设、厂商、测评、行业资讯、游戏与应用、展会活动等。

    热门VR眼镜

    热门资讯

    标签

    头显眼镜对比
    清除所有