本周,腾讯正式面向全球推出其Hunyuan3D创作引擎--一款由人工智能驱动的3D内容生成平台,旨在为创作者与企业大幅简化高质量3D资产的生产流程。该平台支持用户通过文本描述、图像或手绘草图直接生成3D模型,相较传统建模方式显著缩短制作周期。腾讯表示,此举意在降低3D内容创作门槛,推动游戏、电商、影视特效等多个行业的数字内容生产效率升级。API开放接入,赋能全球企业工作流目前,Hunyuan3DModelAPI已通过腾讯云向全球企业开放。开发者可将这一3D生成能力无缝集成至自身业务系统中。官方指出,该API适用于游戏开发、电子商务商品展示、电影特效、广告创意、社交媒体内容生成以及3D打印等多个应用场景。为鼓励早期采用,普通用户每日可享受20次免费生成额度;而通过腾讯云接入的企业用户,则将获得200点免费积分用于3D资产生成。开源社区反响热烈,版本持续迭代自2024年11月首次开源以来,Hunyuan3D模型已在AI社区平台HuggingFace上累计获得超300万次下载。该系列已历经多次迭代,最新发布的Hunyuan3D3.0聚焦于高保真物体资产的生成质量。此外,腾讯还推出了专用子模型,例如Hunyuan3DWorld,专为构建大规模交互式虚拟环境设计,适用于游戏、VR及数字内容生态。据腾讯透露,目前已有超过150家企业通过腾讯云接入Hunyuan3D模型,合作方包括Unity中国、BambuLab,以及国内最大的AI内容创作平台Liblib。
WorldLabs与HTC联合发布了面向虚拟制片平台VIVEMars的全新AI工具--AI世界构建器Marble。该工具主打"极简创作",用户仅需输入一张图片或一段简短文字,即可在数分钟内自动生成可用于实拍合成的高保真虚拟场景,大幅降低虚拟制片的技术门槛。空间智能驱动:从文本/图像到3D场景的一键生成WorldLabs是一家专注于"空间智能"(SpatialIntelligence)的初创企业,致力于构建能理解并生成三维世界的基座模型。其首款产品Marble正是这一理念的落地成果:通过名为"AIGaussianSplatting"的生成技术,系统可直接从单张图像或自然语言描述中重建出细节丰富的3D虚拟环境,无需传统建模、UV展开或复杂光照设置等繁琐流程。相比依赖专业3D软件或游戏引擎的工作流,Marble将整个场景构建过程压缩至几分钟内完成,且输出格式轻量,便于实时渲染调用。无缝接入VIVEMarsNova,实现即插即用的虚拟制片HTC的VIVEMars是一套基于VIVEVR硬件生态打造的高性价比虚拟制片系统,利用现有VIVE追踪设备实现精准相机定位。新推出的配套软件VIVEMarsNova已原生支持Marble输出的轻量化PLY格式数据,并与VIVEMarsCamTrack相机追踪模块深度集成。用户只需将Marble生成的场景导入Nova,连接普通摄像机,即可在绿幕前实时合成实拍画面与AI生成的虚拟背景。整个流程无需UnrealEngine、编程经验或高级3D工具知识,真正实现"所想即所得"的影视级合成效果。这一整合方案显著缩短了从创意到成片的制作链路,使独立创作者、小型工作室甚至非技术背景的内容生产者也能快速拓展视觉表达边界,在短视频、广告、直播乃至教育内容等领域释放新的创作潜力。
Meta最新发布的SAM3DObjects模型为从现实世界中快速生成高质量3D资产设定了新的标准。这项技术使得仅需一张图片,即可在数秒内将现实中的物体转化为虚拟世界中的3D对象,极大地简化了3D内容创作的流程。传统方法vsAI加速长久以来,利用摄影测量法(photogrammetry)通过拍摄数十张不同角度的照片来生成3D模型是主流做法。例如,EpicGames的RealityScan需要约15到45分钟的云端处理时间,而苹果公司则为其iPhonePro系列提供了大约需要5分钟的设备端物体捕捉API(ObjectCaptureAPI)。然而,随着AI技术的进步,近年来出现了可以从单张图像中迅速生成3D资产的先进模型。尽管这些模型的质量起初不如传统的摄影测量法,但随着每一次新模型的发布,其质量也在稳步提升,反映了AI领域整体上的快速发展。SAM3DObjects:下一代3D生成模型最近,Meta发布了SAM3DObjects,这是目前最先进的从单一图像生成3D资产的模型。用户可以通过访问Meta的AIDemos页面,在网页浏览器中免费体验这一功能。只需上传一张图片,并选择想要转换成3D模型的对象,几秒钟后就能看到该对象的3D视图,并可以使用鼠标或手指进行旋转查看。值得注意的是,Meta的演示网站并不完全适配移动屏幕,因此推荐使用PC、笔记本电脑、平板电脑或VR头显进行体验。此外,SAM3DObjects目前仅适用于无生命物体,不支持人物或动物的3D建模。虽然在线演示不允许下载生成的3D模型,但SAM3DObjects是开源项目,可在GitHub和HuggingFace上获取。这意味着开发者可以在提供GPU支持的云计算平台上托管此模型,进而实现类似于EchoTheReality演示的应用,但具有更高品质的输出效果--即直接从现实中"拉取"物体进入VR环境。应用前景与未来展望社交VR平台可以借此让用户在几秒钟内展示他们房间里的物品,或者用自己制作的真实物品装饰虚拟家园。虽然Meta尚未宣布计划将此功能添加到HorizonWorlds中,但这似乎是一个自然的发展方向,能够很好地补充Meta刚刚推出的Hyperscape世界。
在AI生成3D内容的竞赛中,Meta最新推出的WorldGen系统再次将行业门槛推高--它能仅凭一段文字提示,自动生成几何一致、视觉丰富、可交互导航的三角网格。然而,Meta却坦言:这项技术尚未准备好集成到其社交VR平台HorizonWorlds中。从AssetGen到WorldGen:Meta的AI造世之路早在2025年5月,Meta就预告将在HorizonWorlds创作工具中引入"AI自动生成完整3D世界"的能力,并发布了相关模型AssetGen2.0。6月,该功能被正式命名为"EnvironmentGeneration"(环境生成),并展示了示例场景,称将"很快上线"。结果,8月上线的EnvironmentGeneration仅能生成一种特定风格的岛屿,与"通用世界生成"的愿景相去甚远。如今,Meta在一篇技术论文中正式披露了其更强大的下一代系统--WorldGen,这才是真正面向"任意文本生成任意世界"的终极方案。WorldGen是什么?不是GaussianSplat,而是真·游戏级3D与近期热门的WorldLabs的Marble(基于GaussianSplatting)或GoogleDeepMind的Genie3(生成交互式视频流)不同,WorldGen输出的是标准的三角网格(trimesh):兼容Unity、Unreal等传统游戏引擎;包含完整的导航网格(navmesh),支持角色碰撞检测与NPC自主导航;场景由真实3D资产构成,而非视觉近似体。Meta将其描述为:"一个端到端的先进系统,通过单一文本提示生成可交互、可导航的3D世界,服务于游戏、仿真与沉浸式社交环境。"四步生成流程:从文本到可玩世界据Meta披露,WorldGen的生成流程分为四大阶段:(1)规划阶段(Planning)程序化生成基础布局(blockout)提取导航网格(navmesh)生成参考图像指导后续重建(2)重建阶段(Reconstruction)图像到3D基础模型生成基于navmesh构建完整场景结构初步纹理生成(3)分解阶段(Decomposition)使用加速版AutoPartGen提取场景部件(如门、窗、家具)对部件数据进行清洗与结构化(4)精修阶段(Refinement)图像增强网格细节优化高质量纹理贴图生成整个过程融合了程序化生成、扩散模型、场景理解与几何优化,形成一条完整的AI世界生产管线。为何还不上线?两大瓶颈待解尽管技术惊艳,Meta明确表示WorldGen暂不会集成到当前的HorizonWorldsDesktopEditor,也不会作为即将推出的HorizonStudio的首发功能。原因有二:空间尺寸受限:目前仅能生成50×50米的区域,对于开放世界而言太小;生成速度慢:从文本到完整世界仍需较长时间,无法满足创作者"秒级迭代"需求。Meta正在全力优化这两点,目标是在2026年推出大幅升级版,以兑现其在Connect2025大会上展示的HorizonStudio愿景--一个拥有AI助手的全能创作平台,可即时生成:完整世界定制化资产具备行为逻辑的NPC特定玩法机制⚠️但当时演示的内容,可能更多是"概念原型",而非已部署的技术。HorizonWorlds创作现状:DesktopEditor已支持部分AI功能目前,创作者可通过HorizonWorldsDesktopEditor进行flatscreen开发:导入3D模型、贴图、音频;使用TypeScript编写游戏逻辑;在美国、英国、加拿大、欧盟、澳大利亚、新西兰等地区,还可调用AI生成:3D网格资产纹理与天空盒音效与环境音TypeScript代码片段但完整世界生成,仍需等待WorldGen成熟。展望随着AI3D生成技术指数级演进,Meta很可能在2026年实现其"人人都是世界建筑师"的承诺。届时,HorizonStudio或将成为首个真正意义上的AI驱动元宇宙创作平台--你只需说:"创建一个赛博朋克夜市,有霓虹招牌、雨天街道、可互动的机器人摊贩",系统便在几分钟内交付一个可多人游玩的完整VR世界。而WorldGen,正是通往这一未来的基石。