Tag:Meta

  • Tiramisu:Meta的“超真实VR”原型在SIGGRAPH 2025亮相

    2025-08-16 09:04:48

    在2025年SIGGRAPH大会上,Meta展示了其名为Tiramisu的VR研究原型机,该设备结合了超越视网膜的角分辨率、高亮度和高对比度,尽管其视场角较窄,但其视觉保真度标志着向"视觉图灵测试"迈进的关键一步。从6PPD到90PPD:VR显示清晰度的演进自十余年前OculusDK1广泛展示以来,经济型VR头显的角分辨率已从6像素/度(PPD)提升至当前主流的25PPD,高端设备可达35PPD,VarjoXR-4中心区域甚至达到51PPD。这一进步使虚拟图像逐渐摆脱"像素化"和"锯齿感",向真实视觉体验靠拢。然而,角分辨率需要达到何种水平才能实现"真实感"?是否存在收益递减?此外,亮度与对比度是否与分辨率同等重要,甚至更为关键?Tiramisu正是为探索这些问题而设计。"视网膜级分辨率"的再定义在XR行业,普遍认为人眼分辨极限为60PPD,Meta官方博客也曾引用这一"常识"。然而,RealityLabsResearch内部的专家自Oculus早期便对此提出质疑。2022年,Meta推出名为Butterscotch的研究原型,具备55PPD的角分辨率,视场角仅为50度。其目标是测试"视网膜级分辨率"的感知阈值及收益递减点。该原型在实时测试中可动态调整分辨率,验证了高分辨率对消除像素化和锯齿的关键作用。TiramisuTiramisu的开发团队--光学、光子学与光系统(OPALS)团队,正是基于Butterscotch的研究成果,并结合另一原型Starburst(专注于高亮度与高对比度)的发现,构建了Tiramisu。OPALS团队与长期为人熟知的显示系统研究(DSR)团队同属MetaRealityLabs研究部门,两者常有合作。Quest3和Tiramisu的镜头堆栈Tiramisu的技术规格与视觉表现Tiramisu具备以下核心参数:角分辨率:90PPD亮度:1400尼特对比度:Quest3的三倍设备采用微OLED显示屏(类似BigscreenBeyond2等设备),通过光学放大实现超高分辨率,但视场角被限制在33°×33°。与现有微OLED头显不同,Tiramisu未采用流行的折叠透镜(pancakelenses)。尽管折叠透镜有助于实现更轻薄的设计,但其光学效率极低,导致大部分光线在传输中损失,严重削弱最终进入人眼的亮度。例如,Quest3和AppleVisionPro的实际入眼亮度仅约100尼特,远低于其面板标称值。根据Meta的说法,Quest3(蓝色)和Tiramisu(紫色)为突破此限制,OPALS团队为Tiramisu设计了定制折射透镜。该透镜由三片高折射率火石玻璃制成,几乎消除了几何与色差畸变。每片镜片均配有定制抗反射涂层,以在整个视场内最大化亮度与对比度。其结果是:一款厚重且无头带的头显(演示中需手持),但其光学系统能高效传递光线,实现90PPD的解析能力。实际视觉体验:超越分辨率的真实感Tiramisu的演示内容基于UnrealEngine5,由高性能PC驱动,并启用NVIDIADLSS3技术。主要场景为Epic的"ElectricDreams"公园示例,包含高精度摄影测量素材、Nanite几何系统和Lumen全局光照。尽管视场角极小,无法提供沉浸式包裹感,但其图像质量极为震撼:公园场景中的细微纹理与轮廓线平滑自然,无任何像素化或锯齿。夜间飞机驾驶舱场景中,微小开关的凹槽与远处跑道边缘标记清晰可辨。Meta研究人员指出,Tiramisu的90PPD与Butterscotch的55PPD之间存在明显差异。然而,最突出的并非分辨率,而是亮度与对比度。Tiramisu中虚拟LED光源呈现出真实的"自发光"效果,而Quest3在同一场景下仅表现为"彩色贴纸"。这种高对比度与明亮光源的结合,营造出远超Butterscotch的现实感。此外,高亮度与高对比度似乎增强了深度感知,尽管Tiramisu不具备可变焦光学。这一现象在高动态范围(HDR)电视中亦有报道,其机制尚不完全明确。整体而言,Tiramisu的图像明亮、生动、赏心悦目,正如DSR负责人DouglasLanman所形容的:"如同第一次看到4KHDROLED电视,甚至更为震撼。"视野亮度镜头展示任务3108°100尼特煎饼(23毫米厚)25PPD(液晶屏)提拉米苏33°1400尼特折射(63毫米厚)90PPD(微型OLED)提拉米苏290°约700尼特折射+衍射(26毫米厚)60PPD(微型OLED)Tiramisu2:迈向实用化的下一代与Boba3不同,Tiramisu1因视场角过窄、体积过大,不具备产品化可行性。然而,Meta在SIGGRAPH上透露了其后续项目--Tiramisu2,旨在平衡分辨率、亮度、对比度与视场角、紧凑性。Tiramisu1的折射透镜堆栈厚度达63mm,而Tiramisu2将采用折射-衍射混合光学设计,预计厚度缩减至26mm,略高于Quest3的23mm。水平视场角目标为约90度,接近初代OculusRift。这一优化的代价是部分性能牺牲:Tiramisu2的目标为60PPD和700尼特亮度。尽管低于初代,但仍为Quest3的两倍以上分辨率和七倍亮度,被视为合理的权衡。目前,Tiramisu2仍处于开发阶段,Meta未透露其未来路线图。Tiramisu2可以实现真实感、视野和实用性的平衡与Boba3的对比:VR未来的两条路径在同场活动中,Meta还展示了另一款原型Boba3,其特点为180°×120°的超广视场角,但分辨率、亮度和对比度与Quest3相当。Boba3代表了通过扩大视场角提升沉浸感的路径,而Tiramisu则代表了通过极致画质追求"真实感"的路径。两者共同揭示了Meta对VR显示系统未来发展的多维度探索。Tiramisu2若能成功,或将挑战"视场角是首要指标"的传统观点,证明在合理视场下,超高分辨率与高动态范围同样能带来颠覆性的视觉体验。

  • Boba 3亮相SIGGRAPH 2025:Meta用180度超广视场突破VR沉浸边界

    2025-08-15 22:47:01

    在近日举行的SIGGRAPH2025大会上,Meta展示了其最新的VR原型机--Boba3。这款设备凭借接近人眼自然视野的超广视场(FOV)光学系统,同时保持了与Quest3相近的头显形态,被视为近年来VR沉浸感技术最具突破性的进展之一。长期以来,视场角被视为决定VR沉浸感的核心因素。然而,在Boba2和Boba3问世前,业界普遍担忧:大幅提升视场角必然导致头显体积和重量的显著增加。若这一假设成立,考虑到行业对轻薄化设计的持续追求,主流厂商可能长期搁置对视场角的进一步探索。Boba3的出现打破了这一认知。其搭载的光学系统实现了前所未有的水平180度、垂直120度的视场角,而形态并未变得笨重。这一成果让外界对VR下一代硬件的发展方向重燃期待。Boba3MR,带直通功能的版本十年停滞:被忽视的沉浸感核心2013年,OculusDK1的发布开启了消费级VR的复兴浪潮。尽管其单眼光学分辨率不足640×800(约6像素/度),刷新率仅60Hz,且无位置追踪能力,但其约90度的水平视场角已远超此前市面上45度左右的商用头显,让使用者首次感受到"置身虚拟世界"的沉浸感。此后十年,VR技术在分辨率(2K至4K)、刷新率(最高120Hz)、低持久性显示、无标记内外追踪、手势识别、彩色透视及无线独立运行等方面取得长足进步。然而,主流消费级头显的视场角却几乎停滞在90°至110°的区间。虽有Pimax等厂商推出150度甚至更高视场角的产品,但往往伴随"锤头式"外形、边缘严重畸变或高畸变等问题。对于大多数用户实际购买和使用的设备而言,视场角的提升几乎陷入停滞。VR变得更清晰、更智能,却未能更"沉浸"。正是在这一背景下,Boba3所采用的光学系统被视为近十年来VR领域最重要的突破之一。DSR的探索:从Half-Dome到BobaMeta的RealityLabs研究团队(原OculusResearch)旗下的显示系统研究(DSR)团队,长期致力于推动头戴显示技术的前沿发展。该团队由DouglasLanman领导,曾公开展示过可变焦光学、视网膜级分辨率、超高亮度及无重投影透视等原型技术。2018年,DSR推出了视场角达140度的Half-Dome原型,但后续版本为追求紧凑性或电子可变焦,反而缩小了视场角。此后多年,Meta未再展示大视场角原型,直到2024年10月,Meta首席技术官AndrewBosworth手持一款曲面宽体头显的照片曝光,暗示了新方向。今年,Meta正式揭晓该原型名为Boba,并透露其光学堆栈源于约九年前OculusResearch早期的技术积累。近期,DSR团队重新评估了视场角的可能性,最终催生了Boba2与Boba3。请注意,视野因脸型而异,因此这些值是近似值。水平视野垂直视野发行年份DK190°90°2013DK293°99°2014裂痕87°88°2016寻求93°93°2019任务296°(瞳孔间距1&2)86°(瞳孔间距3)93°2020任务3108°96°2023Boba1、Boba2、Boba3和Quest3Boba2与Boba3:超广视场的工程实现Boba2于去年开发,其核心突破在于利用Meta在偏振折叠(pancake)透镜上的大量投入,结合高密度商用LCD屏幕(3K分辨率),实现了180°×120°的超广视场,同时保持了相对可行的形态。其角分辨率(PPD)达到Quest3的25级。Boba3为2025年推出的升级版,采用4KLCD屏幕,将角分辨率提升至30PPD,并优化了透镜生产工艺,减少了边缘"剥离"现象。作为对比,Quest3的视场角不足110°×96°,而人类自然视野约为200°×135°。Meta表示,Boba3覆盖了约90%的人类视场,而Quest3仅覆盖46%。Quest3(左)和Boba3(右)沉浸感的质变:不只是"更大"实际体验中,Boba3带来的沉浸感远超现有设备。其画面清晰度与Quest3相当,但覆盖了绝大部分视野,仅在极边缘处略有缺失。边缘畸变控制良好,与Quest3边缘水平相近。这种超广视场不仅增强了"在场感",还带来了功能性优势:物体持久性提升:用户可始终感知侧方的虚拟物体,无需频繁转头。虚拟会议更自然:可同时观察多位参与者的全身动作与面部表情。多屏办公更高效:可用余光扫视侧边虚拟显示器,减少头部转动。全景视频体验完整:观看180度视频时无需移动头部。此外,减少头部转动本身也是一种舒适性提升,尤其在长时间使用中。Boba3也支持全视场彩色透视混合现实,通过定制FPGA芯片和光纤PCI-E接口传输双2000万像素摄像头的高帧率画面(USB带宽不足)。但其透视采用"直接透视"(静态投影),存在几何畸变且无深度校正,体验略逊于其VR模式。Meta的Boba2视野图并非产品,但具备量产潜力需要明确的是,Boba3并非即将发布的产品,也非产品原型,而是纯粹的研究项目。Meta研究人员在展会期间反复向观众强调这一点,尽管"什么时候发售"成为被问及最多的问题。然而,与Meta另一款难以量产的AR眼镜Orion不同,Boba3的技术路径具备现实可行性:其透镜为双片式偏振折叠结构,新增高曲率反射偏振层,生产工艺与Quest3相近。显示屏为标准4KLCD,与VarjoXR-4、PimaxCrystalSuper等商用产品类似,无需曲面或拼接屏。尽管生产成本将显著高于Quest3,但不会达到数千美元级别。其主要挑战在于光学设计初期的复杂性,而非理论上的不可制造性。Boba3的镜头。存在的权衡与设计考量尽管Boba3体验出色,但仍存在权衡:眼盒较小:眼睛需更精确对准透镜中心才能获得清晰图像。错位时表现为画面变暗而非模糊,可能导致双眼亮度不一致。重量增加:因透镜更大,头显本体比Quest3(配精英头带)重142克。为保证结构稳固,其面罩采用铝材加固而非全塑料。追踪系统:演示中使用初代OculusRift的Constellation外置追踪系统,未来若产品化可替换为内向外追踪。铝材理论上可用镁合金替代以减重,但会增加成本。Boba3甚至可以向上翻转(这是VR变体,没有直通)为何不量产?计算力瓶颈是关键Boba3未被纳入产品路线图,决策权在于Meta产品团队及高层,而非DSR研究团队。首席技术官AndrewBosworth曾多次表示,超广视场在"重量、形态、计算与散热"方面存在权衡。Boba3已证明形态可控,但计算负载问题依然严峻。视场角扩大意味着每帧需渲染更多像素。更重要的是,更多场景元素(几何体、实体、特效)进入视野,需同步渲染与模拟,性能开销远超单纯提升分辨率。在开放世界等复杂场景中,这对性能是巨大挑战。Boba3的演示依赖NvidiaRTX5090(功耗约600瓦)驱动,而Meta自Quest2起已全面转向依赖移动芯片的独立头显(功耗约10瓦)。在此能效约束下,提升分辨率、刷新率或视场角,都会严重挤压本已有限的图形表现空间。Boba3VR,无直通版本,已移除侧面阻挡器Tiramisu:追求"超真实"VR在Boba3之外,Meta同期还展示了另一款名为Tiramisu的原型机,目标是实现"超真实VR"(HyperrealisticVR)。该设备融合了超越视网膜的分辨率、高亮度与高对比度,但视场角仅33度,形态厚重。Tiramisu代表了VR技术的另一条路径:牺牲视场与形态,追求极致画质。与Boba3的"沉浸优先"形成鲜明对比,凸显了当前VR硬件设计中的多重权衡。

  • Meta Quest迎来“零样本”物体识别突破:无需训练,即用即识别

    2025-08-13 10:39:46

    在混合现实(MR)应用开发领域,一个关键瓶颈始终存在:如何让设备快速、准确地理解并识别现实世界中的物体?传统方案依赖预先训练的AI模型,耗时耗力,且泛化能力有限。如今,这一局面正被打破--"零样本物体检测套件"(Zero-ShotObjectDetectionKit)正式发布,为MetaQuest系列设备带来无需训练即可实时识别现实物体的能力。该套件标志着MR应用在环境理解层面的一次重大跃迁:开发者现在可以在其Quest应用中,直接实现对未知物体的即时识别,即便这些物体从未在训练数据中出现过。零样本检测:让AI"见物识物"所谓"零样本检测"(Zero-ShotDetection),意味着AI模型无需针对特定物体进行专门训练,即可在实际运行中识别新对象。这得益于其底层所采用的微软Florence-2大规模视觉-语言预训练模型。该模型在海量图文对数据上进行了训练,具备强大的跨模态理解能力,能够根据语义描述推断物体类别。例如,当用户指向一个从未录入系统的杯子时,系统可基于其形状、上下文和语言提示(如"这是一个陶瓷杯"),直接完成识别与标注,而无需提前准备成千上万张杯子图片进行训练。多模态能力加持:OCR+分割,像素级理解该套件不仅限于物体识别,还集成了光学字符识别(OCR)和图像分割功能。这意味着:它能读取并理解现实场景中的文字内容(如标签、说明书、广告牌);可在像素级别精确划分物体边界,实现更精细的虚实交互--例如将虚拟效果精准贴合到真实物体表面,或实现更自然的遮挡关系。这种多模态感知能力,极大拓展了MR应用在教育、工业维修、零售导购等场景中的实用性。基于Unity,云端加速,开箱即用技术实现上,该套件构建于Unity引擎之上,便于开发者快速集成到现有项目中。其AI推理过程通过NVIDIA的云API完成,利用云端高性能GPU实现高速处理,避免了在本地设备上运行大模型带来的性能压力。更重要的是,整个流程无需额外配置或本地模型部署。开发者只需调用API,即可直接使用MetaQuest设备的彩色摄像头画面作为输入,实现实时、低延迟的物体检测。这与传统的"本地推理+定制训练"方案形成鲜明对比--后者往往需要数周甚至数月的数据准备与模型调优,而"零样本套件"真正实现了"即插即用"。

  • Xtadium登陆英国:VR体育观赛新体验,主打精华内容与幕后视角

    2025-08-12 09:34:51

    沉浸式体育应用Xtadium正式登陆英国,标志着这款在北美广受欢迎的VR体育平台迈出了国际扩张的第一步。不过,与美国版本主打"2D180°赛事直播"不同,此次英国上线的内容策略明显转向--聚焦赛事精华集锦、多角度回放与独家幕后花絮(BTS),而非实时直播。美英双轨制:直播vs.精华,定位清晰在美国市场,Xtadium已深耕多年,为Quest用户提供包括NBA、NASCAR、UFC以及最近的NHL斯坦利杯决赛在内的赛事直播与即时回放。用户不仅能身临其境地观看比赛,还能通过MetaAvatar与同样拥有Quest的好友"同场观赛",实现虚拟空间中的社交互动。然而,在英国首发版本中,直播内容暂时缺席。取而代之的是由开发商YerbaBuenaVR(YBVR)精心策划的沉浸式点播内容库,涵盖多个顶级体育IP:🎾温布尔登网球赛:2022与2023年赛事的沉浸式精彩瞬间与后台独家画面;⚽雷克瑟姆(Wrexham):记录这支传奇球队"三连升"的独家纪录片式内容;🥊DAZN拳击:多机位视角呈现,让用户"感受每一记重拳"的冲击力;⚽巴黎圣日耳曼:冠军赛季(PSG:ChampionsSeason):深入更衣室,见证法甲豪门夺冠征程;🛹XGames(夏/冬季):滑板、BMX、滑雪、单板滑雪等极限运动第一视角;🥋ONE冠军赛:进入八角笼,体验亚洲顶级MMA赛事的激烈对抗;🏀欧洲篮球联赛(EuroLeagueBasketball):从"场边视角"感受欧洲最高水平篮球对决;🧗‍♂️极限运动合集:跳伞、攀岩等惊险刺激的沉浸式体验;📺YouTube体育频道(2D内容):来自顶级体育创作者的直播与点播视频。为何放弃直播?内容授权与市场策略的权衡Xtadium英国版未包含直播,主要受限于体育赛事转播权的地域性与复杂性。相较于获取昂贵的实时转播许可,YBVR选择以高制作价值的集锦与幕后内容切入市场,既能规避版权壁垒,又能提供传统电视难以呈现的沉浸式视角,形成差异化竞争力。这种"轻直播、重内容"的模式,也更符合当前VR用户对"可重复观看、社交分享型"内容的需求。免费开放,全平台支持Xtadium目前在美国和英国均免费提供,用户可通过MetaHorizonStore下载,支持Quest2、QuestPro、Quest3和Quest3S所有主流设备。尽管英国版尚无直播功能,但其丰富的内容阵容和独特的沉浸视角,已为英国VR用户打开了一扇通往"深度体育体验"的新大门。

  • 《麦当劳乐园VR》今日上线Quest与网页

    2025-08-12 09:28:08

    明天(8月12日),全球知名快餐品牌麦当劳将正式推出其官方虚拟现实体验--《麦当劳乐园VR》(McDonaldlandVR)。该体验由麦当劳媒体代理公司Admerasia开发,将于今日起通过MetaHorizonWorlds(支持MetaQuest头显)以及WebXR网页平台同步上线,标志着这家餐饮巨头在虚拟空间营销领域迈出重要一步。沉浸式品牌世界:与经典角色互动《麦当劳乐园VR》构建了一个官方授权的虚拟世界,玩家可以进入充满童趣与奇幻色彩的"麦当劳乐园",与品牌经典IP角色面对面互动,包括:Grimace(大胃王格雷米斯)Hamburglar(汉堡大盗)Birdie(小鸟伯蒂)这些陪伴几代人成长的角色将以全新3D形象登场,为用户带来怀旧又新鲜的品牌体验。双人互动小游戏+收集元素,玩法丰富体验内设有两个主题式互动小游戏,场景设计紧扣麦当劳菜单特色:"麦当劳山奶昔挑战"(Mt.McDonaldlandShakeChallenge)玩家需深入一座"奶昔火山",收集散落的奶昔原料,完成调制任务,考验反应与协作能力。"金拱门障碍赛"(GoldenArchesObstacleCourse)在以汉堡、薯条、可乐等美食为主题的障碍赛道中穿梭奔跑,挑战极限速度与精准操作。此外,世界中还隐藏着各类可收集的虚拟物品,玩家可通过探索解锁专属游戏内外观装饰,用于个性化自己的虚拟形象。跨平台访问:VR与网页双入口《麦当劳乐园VR》支持两种访问方式:VR模式:通过MetaQuest设备进入MetaHorizonWorlds中的专属世界,享受fullyimmersive沉浸体验;网页模式:通过支持WebXR的浏览器直接访问,无需头显即可参与,降低参与门槛,扩大受众覆盖。这一双平台策略体现了麦当劳对"全民可及性"的重视,兼顾深度体验与广泛传播。年内第二次VR布局,持续加码虚拟营销这并非麦当劳今年首次试水VR营销。今年3月,其日本分部曾推出官方McDonald'sVRChat世界,作为"TiroRemix"企划的一部分,联合人气音乐组合YOASOBI与虚拟偶像Hololive成员星街彗星(HoshimachiSuisei),打造了一场融合音乐、美食与虚拟文化的跨界盛宴。此次《麦当劳乐园VR》的全球上线,表明麦当劳正在系统性地构建其虚拟品牌宇宙,从区域性实验走向全球化布局。结语:快餐巨头的"元宇宙菜单"随着Z世代和数字原住民成为消费主力,品牌正加速向虚拟空间迁移。麦当劳接连推出VR体验,不仅是对新技术的拥抱,更是其年轻化、数字化、体验化战略的体现。从汉堡到虚拟世界,麦当劳正在用"金拱门"搭建通往下一代用户的桥梁--这一次,你吃的不只是快餐,更是一段可玩、可分享、可收藏的数字记忆。

  • Meta三大原型机曝光:Boba 3与Tiramisu,谁才是VR的未来?

    2025-08-08 09:45:53

    在通往"终极XR设备"的漫长征途上,Meta再次扔出三枚重磅炸弹。就在SIGGRAPH2025大会前夕,Meta正式揭晓了其最新研发的三款VR/MR原型机的名称与核心参数--其中两款尤为引人注目:Boba3与Tiramisu。它们分别代表了Meta对"沉浸感"与"真实感"的两种极致探索路径。这不仅是技术的展示,更是对未来VR形态的战略宣言。Boba3:打破视野边界,90%人类视场的"现实穿透"长久以来,VR设备的视野(FOV)狭窄一直是阻碍沉浸感的最大瓶颈之一。Quest3的水平视场不足110°,而人眼双目融合后的自然视野可达约200°。这意味着你始终能"看到边缘",意识到自己戴着眼罩。Boba3的出现,或将彻底改写这一局面。🔍关键参数:水平视场:180°垂直视场:120°分辨率:4K×4Kpereye中央角分辨率:30PPD(Quest3为25PPD)MR版本重量:840g,VR版:660g(含刚性头带)对比人类视觉:约覆盖90%的自然视野(Quest3仅约46%)这意味着,当你佩戴Boba3时,你的余光也能看到虚拟世界--就像真实世界一样。这种"打破边框"的体验,被Meta描述为:"你终于意识到,过去缺失的是什么。"更令人震惊的是,它并未像早期宽视场设备(如Pimax或Boba1)那样牺牲形态。其光学设计采用了"高曲率反射偏振器"(high-curvaturereflectivepolarizers),延续了Meta在折叠光路(pancakelenses)上十年的技术积累,并使用已量产的显示屏。换句话说:这不是一个实验室玩具,而是一个"可产品化"的原型。但Meta明确表示:Boba3不会上市。为什么?因为它需要一台顶级PC+高端GPU才能驱动如此高分辨率与宽视场的组合,且成本高昂。而Meta的战略早已转向独立式头显,不再押注PCVR。"这不是为大众市场准备的,"DSR光学科学家YangZhao坦言,"它需要最强的算力支持。"Tiramisu:超越人眼的"超现实VR",一场感官革命如果说Boba3是"看得更广",那么Tiramisu就是"看得更真"。来自MetaOPALS团队(光学、光子与光系统)的这款原型机,首次将三项指标集于一身:指标TiramisuQuest3提升倍数中央角分辨率90PPD25PPD3.6x亮度1400nits100nits14x对比度3x更高基准3x📌人类视网膜分辨率约为60PPD--Tiramisu已超越人眼极限。这意味着什么?文字边缘不再模糊,像印刷品一样锐利;黑色真正"黑"下来,不再是灰蒙蒙的背光泄露;高动态范围(HDR)让阳光、火焰、阴影拥有真实的光影层次。DSR总监DouglasLanman形容:"这就像第一次看到4KHDR电视,或坐上喷水的沉浸式过山车--你无法仅靠参数理解那种震撼。"但代价同样巨大:视场仅33°×33°--比Quest3小得多,几乎像"望远镜";体积庞大、镜片为昂贵玻璃材质;完全依赖PC运行,且需UnrealEngine5+NVIDIADLSS3实时渲染支持。Tiramisu的存在,不是为了成为产品,而是作为Meta的"时间机器"--用来研究"超现实VR"(HyperrealisticVR)的感知边界。它的终极目标,是让XR设备通过"视觉图灵测试":当你戴上它时,无法分辨眼前的是真实世界,还是一块屏幕。战略解读:两条腿走路,一个终点Meta同时推进Boba3与Tiramisu,背后是清晰的技术路线图:项目Boba3Tiramisu目标宽视野、实用化超真实、感知突破适用场景MR协作、沉浸游戏高保真模拟、专业训练技术验证宽FOV+轻量化光学超高PPD+高动态范围未来影响可能下放至Quest4+推动Micro-OLED/光波导发展两者看似对立,实则互补:Boba3告诉我们:如何在现有技术下最大化沉浸感;Tiramisu告诉我们:未来的"真实感"应该长什么样。而最终的"圣杯"设备,将是两者的融合--既宽广,又真实。结语:VR的"奇点"正在逼近Boba3和Tiramisu的出现,标志着VR技术正从"可用"迈向"可信"。我们或许正处于一个转折点:再过5年,当宽视场、高分辨率、高亮度、低延迟的独立头显问世时,人们会回望今天--正是这些"不上市"的原型机,点燃了下一场沉浸革命。

  • 第一款WebXR游戏《Elysian》登陆Meta商店:看懂WebXR的新机遇

    2025-08-07 23:42:10

    在XR内容分发的演进路径上,一款名为Elysian的游戏正悄然打破规则。它不仅是首个登陆MetaHorizonStore(Quest应用商店)的WebXR游戏,更标志着一个关键转折:基于开放网络的XR体验,开始正式接入主流平台的应用发现体系。WebXR的本质:无需商店的自由WebXR的核心理念,是将虚拟现实与增强现实体验构建在开放的万维网之上。这意味着开发者可以:在自己的服务器上托管XR内容;无需经过任何平台审核;用户只需通过支持WebXR的浏览器(如Quest内置浏览器)访问URL即可进入体验。Elysian正是这一理念的典范。作为一款快节奏的波浪射击游戏,它支持平面屏幕与VR双模式运行,玩家可随时通过浏览器访问https://elysian.fun进入游戏--这一入口永远不会消失。新路径:从"网页"到"商店"的双向通行然而,从用户增长角度看,开放网络虽自由,却缺乏流量入口。大多数普通用户并不会主动搜索URL进入一个"网页游戏",他们更依赖应用商店的推荐、分类与搜索。Meta显然意识到了这一点。自Connect2024起,Meta开放了对ProgressiveWebApps(PWA,渐进式网页应用)的支持,允许开发者将WebXR项目打包为PWA,并通过Google的Bubblewrap工具免费上架至MetaHorizonStore。Elysian成为了首个采用这一策略的案例。这意味着:用户现在可以在Quest商店中搜索并下载Elysian;下载体积仅8MB,安装几乎瞬时完成;实际运行时,核心逻辑仍由浏览器引擎驱动,资源按需加载。这种"轻客户端+云端执行"的模式,正是WebXR的一大优势--尤其在移动VR设备存储有限的背景下,8MB的"应用"对比动辄数GB的传统原生应用,堪称极致轻量。商店赋能:发现性+商业化MetaHorizonStore不仅带来了更高的曝光与用户触达,还为WebXR提供了商业化基础设施。自2025年6月起,上架的WebXR应用已支持应用内购买(In-AppPurchases),实现近乎无摩擦的变现路径。虽然Elysian目前为完全免费游戏,未启用该功能,但开发者未来可灵活选择:提供付费皮肤、关卡或角色;采用订阅制或广告支持模式;通过微交易增强玩家留存。这解决了WebXR长期面临的"有技术、难变现"困境。挑战与平衡:性能与体验的取舍当然,WebXR仍有局限。Elysian的轻量化下载得益于其相对简单的图形表现。复杂的3D场景、高模资产、实时物理模拟等,在当前浏览器渲染能力下仍难以与原生应用匹敌。此外,WebXR在权限调用、传感器深度集成、跨平台一致性等方面也面临挑战。但Elysian的成功上线表明:对于轻量级、社交化、快速传播的XR体验,WebXR已具备成熟的商业化路径。未来已来:开放网络与封闭生态的融合Elysian的双重存在--既是一个开放网页,又是一个商店应用--代表了一种新范式:WebXR不再是"替代方案",而是与原生生态共存的内容形态。它保留了开放网络的自由与低门槛,又借力平台商店的分发效率,形成"网页引流+商店沉淀"的闭环。随着更多平台支持PWA上架(如苹果visionOS、pico商店等),我们或将看到:更多独立开发者用WebXR快速验证创意;品牌用"可搜索的XR广告"替代传统Banner;教育、文旅场景实现"扫码即入"的沉浸式体验。

  • Meta 推出 Horizon Worlds 桌面编辑器 AI 助手“Creator Assistant”

    2025-08-05 14:05:22

    Meta近日为其HorizonWorlds桌面编辑器(HorizonWorldsDesktopEditor)推出名为"CreatorAssistant"的AI代理(AIagent),可回答开发问题并自动化执行多种创作任务。该编辑器于2025年2月以"抢先体验"形式发布,适用于Windows平台,同时Meta停用了HorizonWorlds内的VR创作工具。HorizonWorlds桌面编辑器功能概览功能说明资产导入支持导入3D模型、图像、音频文件场景构建可在3D环境中放置资产逻辑开发使用TypeScript(JavaScript的衍生语言)实现游戏逻辑与功能AI功能演进时间线时间更新内容发布初期美国创作者可使用AI生成音效与环境音频2025年4月扩展至美国、英国、加拿大:支持AI生成3D网格(mesh)、纹理(texture)、天空盒(skybox)2025年6月扩展至澳大利亚、新西兰近期推出AI语音NPC功能(官方表示将另行报道)CreatorAssistant:AI开发助手功能说明可回答关于桌面编辑器的使用问题可自动执行特定开发任务示例指令(Meta提供24个)用户可向CreatorAssistant发出如下指令,AI将自动完成资产查找、放置、属性设置及代码编写:"制作一扇在按钮按下时打开的门""创建一个踩上去会激活的地板砖""创建一个可开关的杠杆""生成玩家可收集得分的金币""设计一扇需要钥匙才能打开的门""制作拾取后可恢复生命值的补给包""构建一个可将玩家传送到其他位置的传送垫""开发一个来回移动的平台""设计一个上下运行的电梯""构建一个将玩家弹射到空中的装置""设计一个旋转并伤害玩家的障碍物""创建踩上去会下落或消失的平台""设置一个让玩家跑得更快的区域""构建一个像岩浆一样对玩家造成伤害的地板""生成一把可发射投射物的枪""制作可被射击的目标""创建被击中时会爆炸的桶""为我的游戏实现倒计时计时器""设计一扇在玩家靠近时打开的门""构建一个需要特定重量的压力板谜题""创建一个组合密码锁谜题""生成一个随机掉落物品的箱子""实现一个类似掷骰子的随机器""设计一个重复生成物体的系统""构建一个带音乐的舞池"示例问题(Meta提供4个)用户可向CreatorAssistant提问:"如何创建我自己的自定义资产?""如何在Horizon中使用动画?""如何学习TypeScript?""如何在Horizon中实现自定义UI系统?"当前限制CreatorAssistant尚无法调用Horizon的其他AI生成工具当被要求"创建"或"构建"某物时,AI会从资产库(AssetLibrary)中查找现有资产,不会生成新的AI资产新增功能:风格参考(StyleReference)Meta同时推出新功能StyleReference:功能说明目的确保AI生成的资产风格统一支持类型Mesh(网格)、Texture(纹理)、Skybox(天空盒)、SFX(音效)、AmbientAudio(环境音频)作用创作者可生成、保存并复用特定风格,使生成内容符合其设想的主题与氛围尚未发布功能:AI生成完整世界尽管多次预告,Meta尚未推出"环境生成"(EnvironmentGeneration)功能。2025年6月,Meta表示该功能将"很快上线"功能描述:创作者可基于多种主题"一键生成完整环境"潜在影响:若实现承诺,将极大降低VR世界创作门槛,将创建时间从数小时缩短至数分钟其他信息HorizonWorlds桌面编辑器平台:Windows桌面应用价格:免费MetaHorizon创作者基金总额:5000万美元目标:奖励创作"有趣且吸引人"世界的开发者发放方式:每月发放奖金,依据以下指标:用户停留时长用户留存率世界内购买行为说明:创作者可通过多种方式提升收入

  • Meta 实现 Quest 3 上实时渲染 3 个全身 Codec Avatars,但存在关键取舍

    2025-08-05 09:13:57

    Meta近期公布一项新研究,成功将其高保真全身CodecAvatars技术进行"蒸馏"(distillation),使其可在Quest3等独立式头显上实时运行,最多同时渲染3个全身数字形象。这一成果通过名为"SqueezeMe"的技术实现,相关论文题为《SqueezeMe:Mobile-ReadyDistillationofGaussianFull-BodyAvatars》。什么是CodecAvatars?CodecAvatars是Meta研发近十年的一项技术,旨在创建照片级真实感的数字人形象,其面部和眼部动作由VR头显的眼动与面部追踪数据实时驱动。该技术的目标是实现"社交临场感"(socialpresence)--即用户在潜意识中感受到对方"真实在场",尽管对方并不在物理空间中。目前任何平面屏幕技术(如视频通话)都无法实现这一效果。技术原理:模型"蒸馏""蒸馏"(distillation)是一种AI优化技术,通常用于大模型压缩:使用一个大型、计算成本高的模型生成输出用这些输出去训练一个小型、高效的模型小模型在保持低资源消耗的同时,尽可能复现大模型的效果Meta研究人员利用此方法,将原本需高性能PC显卡运行的全身CodecAvatars模型,压缩至可在Quest3的移动芯片上运行,同时调用其NPU和GPU资源。性能表现指标数据渲染数量最多3个全身CodecAvatars帧率72FPS画质损失相比PC版本"几乎无质量损失"关键取舍(Tradeoffs)尽管性能出色,但该移动版本存在以下限制:限制项说明生成方式依赖传统大型捕捉阵列(100多个摄像头和数百盏灯),不支持通过智能手机扫描生成光照表现采用固定平面光照(flatlighting)动态重光照不支持。这是Meta最新PC版CodecAvatars的核心功能,对融入VR环境和混合现实至关重要与Meta其他研究的对比项目本次研究(SqueezeMe)近期头像研究(基于自拍视频)形象类型全身仅头部生成方式多相机阵列捕捉智能手机自拍视频+服务器处理约1小时核心技术GaussianSplatting+蒸馏GaussianSplatting运行平台Quest3(独立运行)高性能PC注:GaussianSplatting是近年来推动高保真体素渲染的关键技术,其作用类似于大语言模型(LLMs)对聊天机器人的推动。当前设备限制Quest3和Quest3S不具备眼动与面部追踪功能QuestPro曾支持该功能,但已于2025年初停产目前无公开信息表明Meta将在短期内推出具备眼动/面部追踪的新头显可能的落地路径一种可能的过渡方案是:Meta先推出平面屏幕版CodecAvatars利用AI模拟面部表情用户可在WhatsApp和Messenger视频通话中使用,替代当前的MetaAvatar形象,获得更真实的表现未来展望MetaConnect2025将于2025年9月17日举行Meta可能在此活动中公布CodecAvatars的更多进展背景:来自苹果的竞争压力2025年,公众对Meta尽快推出CodecAvatars的呼声显著上升,原因是:苹果已在visionOS26中推出Personas功能这被视为实现了Meta多年承诺的社交临场感体验应用现状Instagram和WhatsApp等应用已可在MetaHorizonStore免费下载,但CodecAvatars尚未作为正式功能上线。

  • 扎克伯格预言:未来没有AI眼镜的人将“处于显著认知劣势”

    2025-08-04 09:42:29

    在Meta2025年第二季度财报电话会议上,CEO马克·扎克伯格(MarkZuckerberg)首次公开提出一个极具未来感的判断:"我认为,未来如果你没有具备AI能力的眼镜,或某种与AI交互的方式,你很可能会在认知上处于显著劣势。"这一言论不仅揭示了Meta对智能眼镜的战略定位,更预示了一个即将到来的"AI增强人类认知"时代。智能眼镜:Meta的"下一代计算平台"正在成型扎克伯格是在回应分析师关于"智能眼镜是否将取代智能手机"的提问时做出上述表态的。他系统阐述了Meta为何将眼镜视为未来的核心计算形态:时尚属性:与雷朋(Ray-Ban)、Oakley等品牌合作,确保产品首先是一款"人们愿意佩戴的时尚眼镜"。AI功能持续增强:MetaAI在眼镜中的使用率持续上升,越来越多用户每天使用AI功能。多模态交互优势:眼镜可让AI"看到你所见、听到你所听、与你对话",实现全天候、沉浸式辅助。虚实融合入口:眼镜是"将物理世界与数字世界融合的理想方式",也是实现"元宇宙愿景"的关键载体。扎克伯格还以视力矫正类比:"我戴隐形眼镜。如果我没有视力矫正,我在世界上穿行时就会有认知劣势。我认为未来,没有AI眼镜的人,也会面临类似的认知落差。"市场验证:Ray-BanMeta销量同比增长超200%这一战略正获得市场积极反馈。Meta的眼镜合作伙伴--依视路陆逊梯卡(EssilorLuxottica)近日披露:"今年截至目前,Ray-BanMeta智能眼镜销量同比超过三倍增长,表现'异常出色'。"这一数据印证了消费者对"时尚+AI"融合产品的接受度正在快速提升。Meta与依视路陆逊梯卡的合作持续深化:双方已签署协议,将合作"延续至下一个十年",共同开发多代智能眼镜产品线Meta已投资30亿欧元,获得依视路陆逊梯卡3%股份据报道,Meta正"考虑"进一步增持至5%产品路线图:从无屏到HUD,再到全息ARMeta的智能眼镜战略采取"分阶段推进"策略,逐步实现从"AI音频助手"到"视觉增强"的跃迁。第一阶段:无屏AI眼镜(已落地)代表产品:Ray-BanMeta、OakleyMetaHSTN功能:音频AI助手、拍照录音、音乐播放状态:已量产,销量爆发第二阶段:带HUD显示的智能眼镜(即将发布)据TheVerge、彭博社等多家媒体确认,Meta首款带显示的智能眼镜MetaCeleste将于2025年秋季发布,预计在MetaConnect2025(9月17日)上正式亮相。MetaCeleste关键特性:单眼光学HUD:位于右眼,显示基础信息显示内容:时间、天气通知提醒拍照预览导航指引实时语音字幕与翻译MetaAI文本回复(替代语音播报)控制方式:标配sEMG腕带,支持手指微动作控制价格:预计超过1000美元⚠️注意:Celeste并非全功能AR眼镜,无空间定位,无法锚定虚拟物体,视野也较窄,属于"信息提示型"设备。第三阶段:全息AR眼镜(长期愿景)Meta已投入近十年研发真正的AR眼镜。2024年Connect大会上展示的Orion原型机,具备:双眼全息显示宽视场角(FOV)高精度眼动与手势追踪完全无线设计但Meta承认:Orion不会成为产品。原因:其依赖的光学材料无法实现低成本量产,若上市,每台成本将超过10,000美元。第四阶段:可量产AR眼镜(Artemis项目)为实现商业化落地,Meta正在开发代号为Artemis的AR眼镜项目,已向《TheVerge》记者AlexHeath公开部分细节:使用玻璃波导镜片(与SnapSpectacles、HoloLens、MagicLeap相同技术路径)放弃Orion的"宽视场角"设计,优先保证可制造性与成本控制目标:打造首款面向开发者与早期用户的消费级AR眼镜这意味着:Meta的首款AR眼镜将不会是Orion那样的"终极形态",而是一款技术折衷但可量产的过渡产品。时间线展望:2025年是关键转折点时间事件意义2025年4月扎克伯格称员工为赶工"周末加班"显示Meta对HUD产品高度重视2025年9月17日MetaConnect2025大会预计发布MetaCeleste,开启预购2025年10月预计发货用户首次体验"AI+显示"智能眼镜2026年起Artemis项目推进向真正AR眼镜迈进总结:Meta的"AI眼镜霸权"正在构建维度Meta的布局战略定位智能眼镜是"下一代计算平台",AI是核心市场验证Ray-BanMeta销量暴涨,用户接受度高产品节奏从无屏→HUD→AR,分阶段演进生态掌控投资依视路陆逊梯卡,掌控硬件与渠道技术储备Orion展示终极愿景,Artemis推进落地✅一句话结论:扎克伯格所说的"认知劣势",不是危言耸听,而是Meta正在亲手构建的未来。从Ray-Ban到Celeste,再到Artemis,Meta正在通过"时尚引流+AI增强+分步落地"的策略,将智能眼镜从"小众玩具"推向"认知基础设施"。未来十年,眼镜或将取代手机,成为人类大脑的"外接CPU"。

  • 共 60 条2/6<12345>

    热门资讯