由独立工作室KMonkeyGames开发的开放世界VR冒险游戏《AmongGiants》(暂译:《巨像之间》)将于2026年第一季度登陆MetaQuest3与Quest3S。这款由单人开发者主导的作品,明显受到《旺达与巨像》和《塞尔达传说:旷野之息》的启发,试图在虚拟现实中复刻那种孤寂、壮阔又充满探索欲的史诗感。玩家将扮演主角Erya,踏入一片面积达25平方公里的废土世界,这里曾是人类文明的家园,如今却只剩下沉睡的古代巨人与神秘的外星文字遗迹。你的任务不仅是穿越荒原、解码失落语言,更要追踪并"狩猎"这些庞然巨物--通过提取它们临终前的记忆,逐步揭开人类文明覆灭的真相。陪伴、坐骑与多样移动方式构建沉浸旅程旅途中,Erya并非孤身一人。她身边有一位名为R-011的微型机器人伙伴,提供辅助与互动;同时还能通过号角随时召唤一匹可骑乘的马,大幅提升野外探索效率。除了地面驰骋,《AmongGiants》还融合了多种立体化移动机制:利用滑翔翼穿越峡谷;借助抓钩攀爬悬崖峭壁;潜入水下探索隐藏区域。战斗方面,Erya主武器为弓箭,此外还可拾取多种不可重复装填的特殊武器应对不同敌人。据开发者透露,游戏中将出现10余种敌对单位,从机械守卫到传说中的"巨骸死亡蠕虫",挑战层层升级。动态环境系统强化生存沉浸感游戏内置完整的昼夜循环与动态天气系统。玩家需在暴雨中保持方向、于暴风雪里寻找庇护,或在烈日炙烤的沙漠中规划行进路线。这种对自然环境的真实模拟,进一步放大了探索的紧张感与孤独氛围。目前,《AmongGiants》已确认登陆Quest3与3S,MetaHorizonStore页面亦显示支持QuestPro,但其他平台尚未公布。对于期待在VR中体验"巨像狩猎+开放世界"融合玩法的玩家来说,2026年初或许值得标记日历。
近日,Meta正式宣布收购AI可穿戴技术公司Limitless,此次收购是Meta强化其人工智能可穿戴设备愿景的一部分。Limitless联合创始人兼CEO丹·西罗克(DanSiroker)亲自确认了此次收购,并强调双方在"构建下一代AI驱动的可穿戴设备"上拥有高度一致的未来图景。Limitless此前因推出AI录音吊坠(LimitlessPendant)而备受关注。这款设备能够实时录制对话与环境声音,并通过内置AI自动生成摘要、整理要点,被定位为面向知识工作者的智能记忆助手。然而,随着收购完成,Limitless已正式停止向新用户销售Pendant,产品进入终售阶段。公司同步启动服务收尾流程:用户可导出或删除个人数据;Rewind应用(非Pendant功能)将终止支持;Limitless桌面端与网页端的录音功能同步关闭;历史会议记录至少保留一年,供用户查阅。值得注意的是,自2025年12月5日起,包括巴西、中国、欧盟、以色列、韩国、土耳其和英国在内的多个地区将无法继续使用Limitless服务。对于现有Pendant用户,公司将提供至少一年的技术支持,并且可以免费使用无限流量套餐。西罗克在公告中表示:"Meta最近提出将'个人超级智能'带给每个人的愿景,而AI可穿戴设备正是实现这一目标的核心。我们非常期待加入Meta,共同推动这一共享愿景落地。"他同时透露,未来将有更多合作细节陆续公布。此次收购不仅标志着Limitless作为独立品牌的谢幕,也预示着Meta正加速整合软硬件能力,为下一代轻量化、全天候AI可穿戴设备铺路。
2021年"元宇宙"被高调推上神坛--它被描绘成人类数字迁徙的下一站:一个闪亮的新大陆,人们将在其中社交、购物、建造、进化,甚至不再需要挺直腰背。然而,现实很快泼来冷水。人们开始问出那个尴尬却致命的问题:"到底谁在用这个?"如今,2025年即将落幕,叙事再次转向:AR可穿戴设备正悄然取代元宇宙,成为科技巨头与用户共同关注的焦点。原因很简单--它们真正融入了日常生活。700亿美元的豪赌,换来一场现实检验Meta对元宇宙的押注堪称孤注一掷。2021年公司直接更名,并持续向RealityLabs(其XR业务部门)投入巨资,如同坚信下一把轮盘就是"赢局"。尽管MetaQuestVR眼镜在2024年拿下了全球VR/AR市场约70%的份额,吸引了企业和消费者目光,但距离扎克伯格所期望的"大众普及",仍有遥远距离。财务数据尤为刺眼:仅2025年第三季度,RealityLabs就录得44亿美元运营亏损,自2020年底以来累计亏损已逼近700亿美元。如此规模的投入,自然引发外界质疑:"这笔账,最终能回本吗?"MetaConnect2025:战略重心转向AI驱动的轻量级AR眼镜在2025年的MetaConnect大会上,公司新方向已然清晰。扎克伯格依然坚信XR将取代智能手机,但通往这一未来的路径,正从笨重的头显转向AI赋能的智能眼镜--这一思路也与苹果、三星不谋而合。最新动作包括:与Ray-Ban推出新一代智能眼镜;宣布与Oakley达成全新合作;推进神经腕带(neuralwristband)研发;收购AI可穿戴初创公司Limitless。Limitless联合创始人兼CEODanSiroker表示:"Meta最近宣布了将'个人超级智能'带给每个人的愿景,而AI可穿戴设备是其中关键一环。我们认同这一方向,并将加入Meta共同实现它。"值得注意的是,RealityLabs同时负责元宇宙与AR技术。如今的资源倾斜,实则是一次明确的战略重构:从构建虚拟世界,转向打造日常可用的增强现实工具。从"建筑乌托邦"到"室内装修":技术哲学的根本转变元宇宙的原始构想过于宏大--它要求用户彻底迁移到另一个维度,重建身份、经济与社交规则,却称之为"无摩擦体验"。这显然违背了人类的基本行为逻辑:我们连切换浏览器标签都嫌麻烦,更别说搬进虚拟世界。相比之下,AR采取了截然不同的策略:不取代现实,而是增强它。它像"室内设计",在已有生活场景中叠加信息、提供上下文、辅助决策,而不打断真实的人际互动。这种从"逃避主义"到"实用主义"的转向,正是市场反复验证的结论:空间计算的未来,不在于打造一个新目的地,而在于让现实世界变得更智能、更高效。Meta的悄然转身,或许标志着元宇宙狂热的终结,但也可能预示着下一代人机交互真正的起点。
据泄露的内部备忘录显示,Meta已决定将原计划于2026年推出的超轻量级头显推迟至2027年上半年发布,并同步启动面向沉浸式游戏的新一代Quest4开发工作。两份由RealityLabs高管签发的内部文件近日被BusinessInsider率先披露。超轻量头显延期,聚焦打磨核心体验其中一份备忘录由RealityLabs副总裁MaherSaba发出,明确指出搭载外接计算模块("puck")并运行HorizonOS的开放式视场超轻头显项目--此前曾以Puffin、Phoenix、Loma等代号流传--将不再按原定时间表推进。新目标发布时间锁定在2027年上半年。该产品内部曾考虑命名为"QuestAir",但最终命名尚未确定。Saba在邮件中强调,此次延期旨在为团队"争取更多空间,把细节做到位"。他坦言:"当前多项产品密集上线,核心用户体验正经历重大重构,我们不会在成品打磨和可靠性上妥协。"此外,备忘录还提及一款代号为"Malibu2"的限量版可穿戴设备将于2026年推出,外界猜测或为此前传闻中的Prada联名智能眼镜。Quest4重启开发,告别补贴模式另一份备忘录由Aul与Cairns联合签署,宣布正式启动下一代主系列Quest头显(极可能命名为Quest4)的研发。与前代不同,这款设备将明确聚焦沉浸式游戏体验,并带来"显著升级"。更重要的是,Meta将不再对其进行硬件补贴。此举被视为RealityLabs向盈利转型的关键一步。就在数月前,Meta刚刚取消了原定2026年发布的Quest4与Quest4S产品线,转而优先推进超轻头显。如今路线再度调整,意味着超轻设备将于2027年上半年落地,而传统形态的Quest4则可能延后至2028年问世。值得注意的是,Meta近期已公开表示"将部分元宇宙投资转向AI眼镜与可穿戴设备"--而在公司内部,"可穿戴设备"并不包含Quest系列头显。尽管如此,硬件开发并未停摆,而是更强调商业可持续性。Saba特别提醒团队:不应借延期之机"增加新功能或承接额外任务",而应集中精力优化已有规划。考虑到Meta硬件路线图历来变动频繁--项目常在临近量产前被取消或重组--当前计划仍存在变数。唯有产品真正接近上市,才值得视为确定信号。
在苹果效力近20年的用户界面设计负责人艾伦·戴(AlanDye)正式宣布离职,并将加入MetaRealityLabs,主导其下一代产品设计。这一人事变动由彭博社记者马克·古尔曼率先披露,随后MetaCEO马克·扎克伯格在Threads平台确认,并透露公司将成立一个全新的"创意工作室"。戴于2006年加入苹果,自2015年起担任软件设计副总裁,全面负责iOS、watchOS等操作系统界面语言,以及面向开发者的整体设计规范。他深度参与了iOS7的视觉革新、iPhoneX的滑动手势交互、AirPods配对流程、CarPlay、DynamicIsland、visionOS等关键项目,并主导了AppStore、Safari、地图、TV、备忘录和FaceTime等核心应用的设计演进。与他一同加入Meta的还有两位资深设计师:曾在苹果担任其副手的比利·索伦蒂诺(BillySorrentino),以及此前已在RealityLabs负责界面设计的约书亚·陶(JoshuaTo)。Meta押注"设计即材料",欲重塑智能硬件体验扎克伯格在公告中阐述了新创意工作室的使命:"我们将融合设计、时尚与技术,定义下一代产品与体验。我们的理念是将'智能'视为一种全新的设计材料,探索当它变得丰富、强大且以人为本时,能创造出什么可能。"他进一步强调,Meta计划"提升设计在公司内部的战略地位",并集结一批兼具工艺水准、创意视野、系统思维及软硬一体产品经验的人才。"我们正进入一个新时代--AI眼镜和其他设备将彻底改变人类与技术、彼此之间的连接方式。潜力巨大,但最关键的是让这些体验自然、以人为中心。新工作室的目标,是让每一次交互都经过深思熟虑、直观易用,并真正服务于人。"值得注意的是,Meta此前在用户体验方面屡遭诟病。其Quest系列头显长期被批评界面混乱、操作繁琐;今年初虽启动界面改版,但仍处于实验阶段。此外,Meta与雷朋合作推出的智能眼镜Ray-BanDisplay也被指出完成基础任务需多次滑动与点击,交互效率低下。尽管新团队的成果短期内难以落地--预计至少需数月甚至数年才能体现在产品中--但此举被视为Meta在XR与智能眼镜赛道的关键布局。随着该技术逐步走向大众市场,Meta亟需通过设计力突破,以应对来自苹果、谷歌等巨头的激烈竞争。
Meta近日宣布,其WearablesDeviceAccessToolkit(可穿戴设备访问工具包)现已进入公开预览阶段。该工具包允许智能手机应用调用Meta智能眼镜的摄像头,实现照片拍摄或视频流传输功能,为开发者在iOS和Android平台上构建创新体验打开新窗口。目前,开发者可下载该工具包并集成至自有App中,在个人设备上进行测试,但尚不能用于面向公众的正式发布版本。摄像头+音频:打造真正的第一人称交互在2025年Connect大会上首次公布的这一工具包,使手机App能够从Ray-BanMeta或OakleyMetaHSTN等支持型号的眼镜中触发拍照或启动720p/30fps的视频流。所获取的画面可由App本地存储或实时处理。由于Meta智能眼镜本身作为蓝牙音频设备运行,开发者还能将视觉输入与双向音频能力结合,构建更完整的多模态交互场景。典型应用场景包括:在社交或直播平台中加入第一人称视角直播功能;将摄像头画面输入第三方多模态AI模型,实现"所见即所问"的实时问答--例如识别商品、翻译路牌或解释周围环境。受限于蓝牙带宽,视频流最高仅支持720p@30fps;当连接环境拥挤时,系统会自动降低分辨率与帧率以保障稳定性。支持机型与未来扩展当前支持的设备包括Ray-BanMeta和OakleyMetaHSTN。Meta还计划在近期加入对OakleyMetaVanguard与MetaRay-BanDisplay的支持,但需注意:后两款设备仅支持摄像头画面回传,无法通过其HUD显示内容。开发者工具包文档与SDK:https://wearables.developer.meta.com早期合作案例已落地数月前,Meta已向Twitch、微软、LogitechStreamlabs和迪士尼等少数合作伙伴提供了该工具包的早期版本:Twitch与LogitechStreamlabs正利用其能力,让用户在平台上直播第一人称视角,功能类似Instagram已有的"GoLive";微软则将其集成至SeeingAI应用中,帮助视障用户通过AI理解周遭环境,提升独立出行与交互能力。随着工具包走向开放,更多结合AI、社交、辅助技术的创新用例有望加速涌现,推动智能眼镜从"音频配件"向"感知终端"演进。
Meta本周正式向所有支持的Quest头显设备推送HorizonOSv83稳定版。此前一个月,该版本已在HorizonOS公测通道(PTC)中进行测试,重点验证了包括系统级位置时间扭曲(SysPTW)、时序调光(TemporalDimming)在内的多项实验性功能,以及仍在打磨中的新版"Navigator"系统界面。需要注意的是,Meta的系统更新采用渐进式推送策略,用户可能需要数天甚至数周才能收到v83更新。此外,部分功能会独立于主版本分批上线,即使已升级至v83,也不代表所有新特性都已激活。以下为v83相较于上一稳定版v81的核心更新亮点:系统级位置时间扭曲:降低帧丢失时的视觉抖动当前主流XR系统普遍采用旋转时间扭曲技术,在每帧显示前根据头部微小转动对画面进行重投影,以掩盖渲染延迟。若应用未能及时生成新帧,系统会将上一帧进一步旋转重投影,避免因重复帧导致的旋转抖动--这在VR眼镜中极易引发眩晕。v83引入了一项名为系统级位置时间扭曲的实验性功能。启用后,该技术将对所有应用全局生效,不仅处理旋转,还结合实时场景深度信息进行位置级重投影,从而在帧率下降时显著缓解位置抖动和延迟感。Meta表示,系统级位置时间扭曲"在需要时自动激活,对常规性能无影响"。值得注意的是,使用'应用级空间扭曲'的应用(即通过SDK实现半帧率合成渲染的游戏)早已内置位置时间扭曲能力,因此不会受此更新影响。但对于未使用应用级空间扭曲的应用,启用系统级位置时间扭曲可带来更流畅的位置追踪体验。时序调光:更智能的屏幕亮度调节早在v69版本,Meta就为Quest3引入了内容自适应亮度控制(CABC),通过在暗场动态降低LCD背光来提升黑色表现。如今v83新增另一项实验性功能--时序调光,适用于Quest3与Quest3S。据Meta介绍,该功能"会在每次使用过程中逐步降低屏幕亮度,以减轻眼疲劳、延长电池续航并优化显示性能,且对用户体验影响极小"。系统设置中的描述则强调其"在空闲时段动态调节亮度以进一步降低功耗"。与内容自适应亮度控制明显可见的亮度跳变不同,时序调光的调整更为平缓隐蔽,亮度变化发生在更长的时间尺度上。目前内容自适应亮度控制仍未脱离实验状态,而时序调光未来是否默认开启,将成为Meta优化LCD显示体验的关键一步。场景理解能力再升级:支持复杂建筑结构识别Quest3系列设备在混合现实空间设置过程中会构建房间的3D网格,并自v64起可识别墙壁、地板、天花板及门窗、桌椅、储物柜、电视等物体的带标签边界框,供开发者通过场景感知API调用,实现虚拟内容的智能锚定。v83进一步扩展了这一能力,现在可识别多层高度地板、倾斜天花板和内墙等更复杂的建筑结构。此举使虚拟对象能更精准地融入真实环境,也标志着Meta在空间感知上向AppleVisionPro的visionOS2(已于去年支持倾斜表面)靠拢。手机端网页登录:弥补浏览器生态短板长期以来,HorizonOS的默认浏览器仅限Quest设备使用,无法同步Chrome或Safari的密码与书签,成为相较visionOS与AndroidXR的明显短板。尽管Meta已陆续支持LastPass、Bitwarden等密码管理器,但要求用户为VR单独配置仍显不便。v83带来一项实用改进:用户可通过MetaHorizon手机App向头显发送链接,实现对"特定网站"的手机端授权登录。目前明确支持的平台包括Roblox和TikTok。Meta未透露该功能是否基于开放Web标准,也未说明其他开发者如何接入,但这一机制无疑为跨设备身份验证提供了新思路。
Meta最新发布的SAM3DObjects模型为从现实世界中快速生成高质量3D资产设定了新的标准。这项技术使得仅需一张图片,即可在数秒内将现实中的物体转化为虚拟世界中的3D对象,极大地简化了3D内容创作的流程。传统方法vsAI加速长久以来,利用摄影测量法(photogrammetry)通过拍摄数十张不同角度的照片来生成3D模型是主流做法。例如,EpicGames的RealityScan需要约15到45分钟的云端处理时间,而苹果公司则为其iPhonePro系列提供了大约需要5分钟的设备端物体捕捉API(ObjectCaptureAPI)。然而,随着AI技术的进步,近年来出现了可以从单张图像中迅速生成3D资产的先进模型。尽管这些模型的质量起初不如传统的摄影测量法,但随着每一次新模型的发布,其质量也在稳步提升,反映了AI领域整体上的快速发展。SAM3DObjects:下一代3D生成模型最近,Meta发布了SAM3DObjects,这是目前最先进的从单一图像生成3D资产的模型。用户可以通过访问Meta的AIDemos页面,在网页浏览器中免费体验这一功能。只需上传一张图片,并选择想要转换成3D模型的对象,几秒钟后就能看到该对象的3D视图,并可以使用鼠标或手指进行旋转查看。值得注意的是,Meta的演示网站并不完全适配移动屏幕,因此推荐使用PC、笔记本电脑、平板电脑或VR头显进行体验。此外,SAM3DObjects目前仅适用于无生命物体,不支持人物或动物的3D建模。虽然在线演示不允许下载生成的3D模型,但SAM3DObjects是开源项目,可在GitHub和HuggingFace上获取。这意味着开发者可以在提供GPU支持的云计算平台上托管此模型,进而实现类似于EchoTheReality演示的应用,但具有更高品质的输出效果--即直接从现实中"拉取"物体进入VR环境。应用前景与未来展望社交VR平台可以借此让用户在几秒钟内展示他们房间里的物品,或者用自己制作的真实物品装饰虚拟家园。虽然Meta尚未宣布计划将此功能添加到HorizonWorlds中,但这似乎是一个自然的发展方向,能够很好地补充Meta刚刚推出的Hyperscape世界。
在AI生成3D内容的竞赛中,Meta最新推出的WorldGen系统再次将行业门槛推高--它能仅凭一段文字提示,自动生成几何一致、视觉丰富、可交互导航的三角网格。然而,Meta却坦言:这项技术尚未准备好集成到其社交VR平台HorizonWorlds中。从AssetGen到WorldGen:Meta的AI造世之路早在2025年5月,Meta就预告将在HorizonWorlds创作工具中引入"AI自动生成完整3D世界"的能力,并发布了相关模型AssetGen2.0。6月,该功能被正式命名为"EnvironmentGeneration"(环境生成),并展示了示例场景,称将"很快上线"。结果,8月上线的EnvironmentGeneration仅能生成一种特定风格的岛屿,与"通用世界生成"的愿景相去甚远。如今,Meta在一篇技术论文中正式披露了其更强大的下一代系统--WorldGen,这才是真正面向"任意文本生成任意世界"的终极方案。WorldGen是什么?不是GaussianSplat,而是真·游戏级3D与近期热门的WorldLabs的Marble(基于GaussianSplatting)或GoogleDeepMind的Genie3(生成交互式视频流)不同,WorldGen输出的是标准的三角网格(trimesh):兼容Unity、Unreal等传统游戏引擎;包含完整的导航网格(navmesh),支持角色碰撞检测与NPC自主导航;场景由真实3D资产构成,而非视觉近似体。Meta将其描述为:"一个端到端的先进系统,通过单一文本提示生成可交互、可导航的3D世界,服务于游戏、仿真与沉浸式社交环境。"四步生成流程:从文本到可玩世界据Meta披露,WorldGen的生成流程分为四大阶段:(1)规划阶段(Planning)程序化生成基础布局(blockout)提取导航网格(navmesh)生成参考图像指导后续重建(2)重建阶段(Reconstruction)图像到3D基础模型生成基于navmesh构建完整场景结构初步纹理生成(3)分解阶段(Decomposition)使用加速版AutoPartGen提取场景部件(如门、窗、家具)对部件数据进行清洗与结构化(4)精修阶段(Refinement)图像增强网格细节优化高质量纹理贴图生成整个过程融合了程序化生成、扩散模型、场景理解与几何优化,形成一条完整的AI世界生产管线。为何还不上线?两大瓶颈待解尽管技术惊艳,Meta明确表示WorldGen暂不会集成到当前的HorizonWorldsDesktopEditor,也不会作为即将推出的HorizonStudio的首发功能。原因有二:空间尺寸受限:目前仅能生成50×50米的区域,对于开放世界而言太小;生成速度慢:从文本到完整世界仍需较长时间,无法满足创作者"秒级迭代"需求。Meta正在全力优化这两点,目标是在2026年推出大幅升级版,以兑现其在Connect2025大会上展示的HorizonStudio愿景--一个拥有AI助手的全能创作平台,可即时生成:完整世界定制化资产具备行为逻辑的NPC特定玩法机制⚠️但当时演示的内容,可能更多是"概念原型",而非已部署的技术。HorizonWorlds创作现状:DesktopEditor已支持部分AI功能目前,创作者可通过HorizonWorldsDesktopEditor进行flatscreen开发:导入3D模型、贴图、音频;使用TypeScript编写游戏逻辑;在美国、英国、加拿大、欧盟、澳大利亚、新西兰等地区,还可调用AI生成:3D网格资产纹理与天空盒音效与环境音TypeScript代码片段但完整世界生成,仍需等待WorldGen成熟。展望随着AI3D生成技术指数级演进,Meta很可能在2026年实现其"人人都是世界建筑师"的承诺。届时,HorizonStudio或将成为首个真正意义上的AI驱动元宇宙创作平台--你只需说:"创建一个赛博朋克夜市,有霓虹招牌、雨天街道、可互动的机器人摊贩",系统便在几分钟内交付一个可多人游玩的完整VR世界。而WorldGen,正是通往这一未来的基石。
在空间计算浪潮席卷全球之际,Meta正式推出SegmentAnythingModel3D(SAM3D),将传统的2D图像理解能力推向全新维度。这项突破性技术仅需单张普通照片,即可精准重建出完整的3D物体、场景甚至人体模型,让每一帧手机快照或网络图片瞬间转化为可交互、可部署的沉浸式数字资产。从平面到空间:打破屏幕的牢笼过去数十年,我们的数字生活被禁锢在二维屏幕上--点击、滑动、观看,却始终与物理世界隔绝。SAM3D正在瓦解这一边界:一张椅子的照片不再只是静态图像,而是一个可360°旋转、自由缩放、导入虚拟房间的真实3D对象;一个人物快照也能变成可用于社交Avatar或全息通信的立体化身。Meta已率先将该技术落地于FacebookMarketplace的"ViewinRoom"功能。用户不再需要凭空想象沙发尺寸是否合适,而是直接将其3D模型"放置"在自家客厅中,从任意角度查看搭配效果--电商体验由此迈入空间化时代。直面真实世界的复杂性传统3D重建常因遮挡、杂乱背景或多视角缺失而失败。SAM3D却能从容应对这些现实挑战:即使物体部分被遮挡,系统仍可推断完整结构;在凌乱环境中精准分离目标主体;支持非正面、低光照等"不完美"输入。其背后依托超大规模预训练模型与人在回路(human-in-the-loop)反馈机制,在保证高精度的同时实现接近实时的推理速度,为消费级应用和创意工作流提供坚实支撑。赋能XR、机器人与下一代交互SAM3D的意义远超图像处理本身,它正在催生多个领域的范式变革:AR/VR内容创作民主化:无需建模技能,拍照即得3D资产;虚拟零售革命:商品数字化成本骤降,沉浸式购物成为标配;空间通信新形态:未来视频通话或将传送3D化身而非2D画面;机器人环境理解:帮助机械臂更准确识别与操作现实物体。开源驱动生态,加速3D普及Meta延续其开放策略,同步开源了SAM3D的模型权重、评估基准与开发者工具包,并上线了直观易用的在线Playground。全球开发者、设计师、教育者均可立即上手实验,共同推动从"2D屏幕时代"向"动态3D世界"的主流迁移。SAM3D如何改变你的数字生活?一键生成3D:手机照片秒变精细3D模型零门槛创作:普通人也能制作XR内容重塑电商体验:家具、服饰"试穿试摆"更真实赋能硬件生态:为XR眼镜、MR设备提供实时3D引擎激发全球创新:通过开源持续推动技术演进在Playground中测试Sam3Dhttps://aidemos.meta.com/segment-anything/gallery