Meta最新发布的SAM3DObjects模型为从现实世界中快速生成高质量3D资产设定了新的标准。这项技术使得仅需一张图片,即可在数秒内将现实中的物体转化为虚拟世界中的3D对象,极大地简化了3D内容创作的流程。传统方法vsAI加速长久以来,利用摄影测量法(photogrammetry)通过拍摄数十张不同角度的照片来生成3D模型是主流做法。例如,EpicGames的RealityScan需要约15到45分钟的云端处理时间,而苹果公司则为其iPhonePro系列提供了大约需要5分钟的设备端物体捕捉API(ObjectCaptureAPI)。然而,随着AI技术的进步,近年来出现了可以从单张图像中迅速生成3D资产的先进模型。尽管这些模型的质量起初不如传统的摄影测量法,但随着每一次新模型的发布,其质量也在稳步提升,反映了AI领域整体上的快速发展。SAM3DObjects:下一代3D生成模型最近,Meta发布了SAM3DObjects,这是目前最先进的从单一图像生成3D资产的模型。用户可以通过访问Meta的AIDemos页面,在网页浏览器中免费体验这一功能。只需上传一张图片,并选择想要转换成3D模型的对象,几秒钟后就能看到该对象的3D视图,并可以使用鼠标或手指进行旋转查看。值得注意的是,Meta的演示网站并不完全适配移动屏幕,因此推荐使用PC、笔记本电脑、平板电脑或VR头显进行体验。此外,SAM3DObjects目前仅适用于无生命物体,不支持人物或动物的3D建模。虽然在线演示不允许下载生成的3D模型,但SAM3DObjects是开源项目,可在GitHub和HuggingFace上获取。这意味着开发者可以在提供GPU支持的云计算平台上托管此模型,进而实现类似于EchoTheReality演示的应用,但具有更高品质的输出效果--即直接从现实中"拉取"物体进入VR环境。应用前景与未来展望社交VR平台可以借此让用户在几秒钟内展示他们房间里的物品,或者用自己制作的真实物品装饰虚拟家园。虽然Meta尚未宣布计划将此功能添加到HorizonWorlds中,但这似乎是一个自然的发展方向,能够很好地补充Meta刚刚推出的Hyperscape世界。