
在 AI 生成 3D 内容的竞赛中,Meta 最新推出的 WorldGen 系统再次将行业门槛推高——它能仅凭一段文字提示,自动生成几何一致、视觉丰富、可交互导航的三角网格。然而,Meta 却坦言:这项技术尚未准备好集成到其社交VR平台 Horizon Worlds 中。
早在 2025 年 5 月,Meta 就预告将在 Horizon Worlds 创作工具中引入“AI 自动生成完整 3D 世界”的能力,并发布了相关模型 AssetGen 2.0。
6 月,该功能被正式命名为 “Environment Generation”(环境生成),并展示了示例场景,称将“很快上线”。
结果,8 月上线的 Environment Generation 仅能生成一种特定风格的岛屿,与“通用世界生成”的愿景相去甚远。
如今,Meta 在一篇技术论文中正式披露了其更强大的下一代系统——WorldGen,这才是真正面向“任意文本生成任意世界”的终极方案。
与近期热门的 World Labs 的 Marble(基于 Gaussian Splatting)或 Google DeepMind 的 Genie 3(生成交互式视频流)不同,WorldGen 输出的是标准的三角网格(trimesh):
兼容 Unity、Unreal 等传统游戏引擎;
包含完整的导航网格(navmesh),支持角色碰撞检测与 NPC 自主导航;
场景由真实 3D 资产构成,而非视觉近似体。
Meta 将其描述为:
“一个端到端的先进系统,通过单一文本提示生成可交互、可导航的 3D 世界,服务于游戏、仿真与沉浸式社交环境。”
据 Meta 披露,WorldGen 的生成流程分为四大阶段:
程序化生成基础布局(blockout)
提取导航网格(navmesh)
生成参考图像指导后续重建
图像到 3D 基础模型生成
基于 navmesh 构建完整场景结构
初步纹理生成
使用加速版 AutoPartGen 提取场景部件(如门、窗、家具)
对部件数据进行清洗与结构化
图像增强
网格细节优化
高质量纹理贴图生成
整个过程融合了程序化生成、扩散模型、场景理解与几何优化,形成一条完整的 AI 世界生产管线。
尽管技术惊艳,Meta 明确表示 WorldGen 暂不会集成到当前的 Horizon Worlds Desktop Editor,也不会作为即将推出的 Horizon Studio 的首发功能。原因有二:
空间尺寸受限:目前仅能生成 50×50 米 的区域,对于开放世界而言太小;
生成速度慢:从文本到完整世界仍需较长时间,无法满足创作者“秒级迭代”需求。
Meta 正在全力优化这两点,目标是在 2026 年 推出大幅升级版,以兑现其在 Connect 2025 大会上展示的 Horizon Studio 愿景——
一个拥有 AI 助手的全能创作平台,可即时生成:
完整世界
定制化资产
具备行为逻辑的 NPC
特定玩法机制
⚠️ 但当时演示的内容,可能更多是“概念原型”,而非已部署的技术。
目前,创作者可通过 Horizon Worlds Desktop Editor 进行 flatscreen 开发:
导入 3D 模型、贴图、音频;
使用 TypeScript 编写游戏逻辑;
在美国、英国、加拿大、欧盟、澳大利亚、新西兰等地区,还可调用 AI 生成:
3D 网格资产
纹理与天空盒
音效与环境音
TypeScript 代码片段
但完整世界生成,仍需等待 WorldGen 成熟。
随着 AI 3D 生成技术指数级演进,Meta 很可能在 2026 年 实现其“人人都是世界建筑师”的承诺。届时,Horizon Studio 或将成为首个真正意义上的 AI 驱动元宇宙创作平台——
你只需说:“创建一个赛博朋克夜市,有霓虹招牌、雨天街道、可互动的机器人摊贩”,系统便在几分钟内交付一个可多人游玩的完整 VR 世界。
而 WorldGen,正是通往这一未来的基石。

VR52网成立于2015年,平台提供VR头显、AR眼镜、配件外设、厂商、测评、行业资讯、游戏与应用、展会活动等。