Meta改变头显战略,2026年将推出超轻HorizonOS头显"Puffin",Quest4系列被取消据多家消息来源向VR52 透露,Meta正在调整其VR/AR硬件战略,优先推进一款代号为Puffin的极轻型头显,并计划于2026年底之前发布。这款设备将运行与当前Quest系列相同的HorizonOS,但采用全新的设计思路:通过外接计算模块(ComputePuck)实现轻量化佩戴体验。这一战略转变意味着此前被认为是下一代消费级VR眼镜候选的两款设备--PismoLow和PismoHigh已被取消。而原本被视为"传统形态"的下一款Quest头显,目前预计最早也要到2027年才能面世。Puffin是什么?像眼镜一样轻便,主打虚拟屏幕和生产力场景Puffin被描述为一种开放式视野、极度轻盈的头戴设备,重量据说不到110克,接近一副普通太阳镜的水平。它没有内置电池和处理器,而是通过一根线缆连接一个可放入口袋的小型计算模块,从而大幅减轻头部负担。根据去年TheInformation的报道:Puffin看起来像是"一副笨重的眼镜"没有配备传统手柄使用类似AppleVisionPro的"注视+捏合"交互方式(Gaze-and-Pinch)虽然它依然运行HorizonOS,但Meta更倾向于将其定位为一款专注于虚拟屏幕的设备,目标是让用户在任何地方都能"召唤"出任意数量、尺寸的虚拟显示器,用于娱乐或办公效率提升。尽管目前的独立式头显也能做到这一点,但它们大多不够轻便美观,难以成为大众日常使用的工具。值得注意的是,Meta目前尚未最终确定Puffin将采用哪种显示方案,也未决定其最终价格区间。Luna与BradLynch公布Meta战略变化细节VR爱好者兼知名爆料人Luna和BradLynch最近也在社交平台上公开讨论了Meta头显路线图的变化。早在九个月前,《TheInformation》就首次曝光了Puffin的存在。而在Connect2024之后,MetaCTOAndrewBosworth向《TheVerge》记者AlexHeath首次确认了该项目的属实性。第三方厂商正在填补"游戏头显"空缺|华硕与联想加入HorizonOS生态与此同时,Meta也在推动第三方厂商开发基于HorizonOS的新设备。其中最引人注目的包括:华硕ROG性能游戏头显:据称搭载比Quest3更先进的显示屏,并可能支持眼动追踪功能。联想也在研发相关产品,但具体信息尚未公布。这意味着即使未来几年内没有新一代Quest主打游戏市场,用户仍有望通过第三方品牌获得更强劲的游戏体验。Puffin项目仍有不确定性,Meta可随时取消或重启新项目尽管Puffin目前进展顺利,但Bosworth在接受采访时也强调,Meta经常会在产品开发过程中取消大量原型项目,包括许多我们从未听闻的概念设备。他还详细介绍了Meta硬件开发流程的几个阶段:Pre-Discovery(前期探索):一个小团队负责打造"疯狂创意"的体验原型;Discovery(可行性验证):少数概念进入可行性评估阶段,考察工业设计与成本;Prototyping(原型开发):若可行,则进入原型开发,涉及数十人协作软硬件整合;EngineeringValidationTest(工程验证测试):大约一半原型会进入最终测试阶段并列入产品路线图;但这些EVT中又有约半数会被高管否决,仅有一小部分最终上市。Bosworth还在Instagram的AMA(问答)中反复强调,Meta始终同时推进多个头显项目,其中大多数永远不会面世。MetaRealityLabs收入下滑,战略调整背后或有财务压力就在Meta宣布战略调整前不久,其最新财报数据显示:RealityLabs(元宇宙与穿戴设备部门)2025年第一季度收入同比下降6%。MetaCFOSusanLi表示,这主要是由于Quest销售疲软所致,不过Ray-BanMetaAI眼镜的销量增长部分抵消了下降幅度。尽管Quest3S在圣诞季表现强劲,并成为热门礼品,但其销售势头未能延续至新年伊始。这也促使Meta开始重新思考其硬件策略,希望推出一款不再只依赖节日季拉动销量的产品。
Meta近日开始向部分使用PublicTestChannel(PTC)的Quest用户推送代号为Navigator的全新系统界面更新。官方表示,这一重大界面升级将在"未来几个月内"逐步向所有用户开放。Navigator:全新系统操作界面登场这项新功能是在2024年9月的MetaConnect大会上首次公布的。当时,Meta不仅公布了它的名字,还放出了一段简短的演示视频。随着HorizonOSv77的发布,Meta表示Navigator已经开始向"部分PTC用户"推送,并计划在未来数月内逐步推广至所有用户。Navigator将原本的系统界面(如"应用库Library"、"快捷控制QuickControls"和"相机Camera")整合进一个全新的浮动窗口中,无论你正在运行沉浸式应用还是2D应用,这个界面都会以半透明背景浮现在当前画面之上。这与目前系统界面作为普通2D应用运行的方式有显著不同。此外,Navigator的应用库支持用户最多"固定"10个常用应用,类似于Windows上的"开始菜单"。Meta在官方说明中写道:"我们基于过去十年的经验设计了Navigator。这只是HorizonOS演进的开始。我们还在为未来的空间计算体验规划更多内容,请持续关注。"什么是PublicTestChannel(PTC)?PublicTestChannel(公众测试通道)是MetaQuest的Beta测试渠道之一。如果你选择加入该通道,你的设备将会收到每期系统更新的预发布版本,即目前被称为HorizonOS的系统软件。需要注意的是,PTC版本中有时会包含一些最终不会出现在正式稳定版中的功能;偶尔也有部分功能或改动在PTC中出现后又被移除的情况。Instagram照片也能变3D?Meta正在测试中除了系统界面更新,Meta还透露正在测试一项新功能:将部分用户的Instagram动态中的照片自动转换为3D效果。官方解释称:"借助我们的AI视角合成算法,我们可以逐像素地将Instagram动态中现有的2D图像进行转换--不需要特殊的3D相机。这意味着即使这些照片最初并非以3D形式拍摄,也会被自动转换成一种更具沉浸感的形式,在Quest上观看时能呈现出深度感。"此前,苹果VisionPro和Pico4Ultra的"照片"应用已经具备将2D转换为3D的功能,但这是首次有主流社交平台尝试此类实验。Meta表示,这项测试是他们"将当下仍为2D的社交与娱乐体验带入更加沉浸式、3D化未来"的一部分。HorizonOSv77其他更新内容除了上述主要更新外,v77还带来了以下改进:✅可随动的窗口你可以选择某些窗口跟随你在虚拟空间中移动。这项更新避免了每次移动后都要重新调整视图的问题。目前,一次只能让一个窗口跟随你移动。✅可控的空间音频开关你现在可以决定哪些应用和面板启用空间音频。要管理相关设置,请进入Quest设置中的"音频"菜单。✅支持蓝牙LE音频(实验性功能)支持蓝牙LowEnergy(低功耗)音频的设备现已可在MetaHorizon上使用,但需要在蓝牙设置中手动开启该实验性功能。✅文字转语音(TexttoSpeech)辅助功能新增文字朗读功能,将屏幕上的文字内容通过语音朗读出来,帮助残障人士更方便地使用系统。目前仅适用于部分菜单和应用界面。✅名称标签定制更新名称标签的自定义选项也进行了调整,原有的"标签边框"将被移除。你可以继续使用贴纸来自定义你的标签。如果你之前设置了带有边框的名称标签,它将在5月5日之后自动移除。✅MetaAI启动方式更新为了减少误触,MetaAI的启动按钮组合已更改。现在你需要先按Meta键,再按握把键来激活AI。类似地,截图功能则是通过Meta键加扳机键实现。MetaAI是一个可选功能,可以在高级设置中开启。更新将分阶段逐步上线正如以往的HorizonOS更新一样,v77也将采取逐步推送机制,因此你的设备可能需要几天甚至几周时间才能收到更新。另外,Meta常常会将某些功能独立于主更新包进行推送,因此即使你已经升级到v77,也不代表你就能立即获得本文提到的所有新功能。性能问题引发开发者反馈一些开发者也对近期HorizonOS更新带来的性能下降提出了抱怨。对此,Meta的首席技术官表示公司"非常重视这些问题",并正在投入时间进行优化与修复。
为什么MetaQuest3不支持"持续场景建模"?MetaCTO解释背后的挑战从用户角度来看,环境扫描(roomscanning)一直是影响MetaQuest3和Quest3S混合现实(MR)体验的主要障碍之一。目前,用户在使用混合现实应用前,必须提前对房间进行一次完整的扫描,这个过程可能需要几分钟时间,具体取决于房间的大小和复杂程度。更麻烦的是,一旦家具位置发生变化,当前的3D场景模型是静态的,需要手动重新扫描才能更新--有时甚至要完全重做。这种繁琐的操作流程让不少用户体验大打折扣。试想一下,工作了一整天回到家,只想戴上头显放松一下,却还要先花几分钟扫描房间,才能开始玩MR游戏,这对普通用户来说确实不太友好。MetaCTO揭秘:持续扫描为何尚未实现?在最近一次Instagram的AMA(AskMeAnything)问答中,Meta首席技术官AndrewBosworth回应了关于Quest系列设备为何尚未支持"持续场景建模"(continuousscenemeshing)的问题,并详细解释了背后的技术挑战。他表示:"这个问题其实有两个层面。第一就是计算资源。持续不断地重新计算你周围环境的变化是非常耗费性能的。而这些热能和计算资源,我们也可以用在其他方面,我们认为那些功能可能对你更有价值。第二个难点在于模型本身。如果你已经预先构建好了整个环境模型并交给应用程序,那它就可以对这个空间做出很多预测。但如果环境是不断变化的,应用程序就必须具备更高的动态响应能力。比如这张桌子可能会移动,沙发也可能会被搬走,那么在这种情况下,应用该如何应对?"Bosworth进一步指出:"目前大多数混合现实体验都发生在相对静态的环境中。但这种情况未来会改变。我可以明确地说,我们最终会实现这一点--持续建模将成为一种常态。"他还提到,Meta曾经尝试过一些初步方案,例如检测用户是否越界等行为。"但这始终是一个权衡问题--一方面受限于当前的算力,另一方面也要考虑开发者长期使用的模型架构。"苹果VisionPro已实现,Quest为何落后?提问的用户也指出了一个现实问题:像AppleVisionPro这样的设备已经实现了"持续房间扫描"的功能。关键区别在于硬件配置。VisionPro内置了LiDAR(激光雷达)传感器,能够快速、精准地捕捉环境深度信息,为实时建模提供了强有力的支持。而MetaQuest3和3S主要依赖于计算机视觉算法来完成环境感知任务,这种方式虽然成本更低,但也带来了更大的计算负担,尤其是在需要实时更新的场景下。尽管部分VR开发者正在尝试通过自定义算法实现类似的连续扫描功能,但这些方案往往会导致显著的性能损耗,尤其在当前硬件条件下并不实用。Quest4或将带来突破?如果未来的MetaQuest4能够搭载更强的深度传感器(如LiDAR)以及更高性能的处理器,那么"手动扫描房间"的操作或许将成为历史。不过,加入这类先进硬件也会带来额外的成本压力,从而可能导致设备价格上升。今年早些时候,Meta曾透露正在改进房间扫描系统,但截至目前,官方尚未公布任何具体的时间表。总结:技术路线不同,Meta正在稳步推进尽管目前的Quest3还不支持持续场景建模,但这并非因为Meta技术落后,而是出于性能与实用性之间的平衡考量。随着硬件升级和软件优化的推进,这一功能在未来可期。对于期待更智能、更无缝的混合现实体验的用户而言,也许只需耐心等待,就能看到Meta在下一代表现更出色的MR头显中实现这一目标。