macOS26将支持向AppleVisionPro渲染沉浸式体验,这是Apple对PCVR的回应🖥️🕶️💻在visionOS26发布的同时,Apple还宣布了一项令人振奋的新功能:macOS26现在可以将沉浸式体验渲染并流式传输到AppleVisionPro上。这可以说是Apple对传统PCVR模式的自家诠释。🚀开发者友好设计:从Mac到VisionPro无缝连接虽然开源工具ALVR已经让AppleVisionPro可以作为SteamVR头显使用,但SteamVR自2020年起就不再支持macOS,限制了这一路线的发展。而Apple此次推出的方案,则是深度整合自家生态系统:macOS26中新增的空间渲染功能与visionOS26完美协同工作这意味着开发者可以轻松地将macOS应用中的沉浸式空间内容直接投射到VisionPro上。当你在macOS应用中启动一个支持新功能的"沉浸空间"时,VisionPro会弹出提示。只需点击确认,系统就会自动开始远程渲染,将高质量画面传输至头显中。💪VisionPro的芯片性能+Mac的强大算力=更强沉浸体验尽管VisionPro所搭载的M2芯片已经比市面上任何一款独立头显都要强大,但它只是Apple强大生态的基础。更高端的M2Pro/M2Max/M2Ultra提供更强性能最新的M3和M4系列芯片已进一步提升性能表现:M3Max的多核CPU性能是M2的3倍GPU性能超过5倍支持高达512GB统一内存借助macOS的空间渲染能力,开发者可以利用这些强大的桌面级芯片来运行更复杂的虚拟场景,实现更高画质、更真实模拟和更强交互性的沉浸式体验。🏢企业用户将从中受益,或将挑战Varjo等专业设备厂商我们预计这项技术将在企业级市场引发广泛关注。例如:设计公司可以渲染出产品或零部件的1:1全息模型工程师可以在虚拟环境中进行细节检查与协作设计这种高保真可视化方案可能会成为像Varjo这类高端专业MR设备的有力竞争者,尤其是在需要精细建模与实时交互的工业设计、医疗培训、建筑可视化等领域。🛠️开发者如何接入?对于开发者来说,集成macOS空间渲染非常简单,只需要使用SwiftUI的RemoteImmersiveSpace结构体即可快速实现对VisionPro的沉浸式内容输出。📚更多visionOS26内容请参考我们的完整解析文章:《visionOS26正式发布!AppleVisionPro迎来PlayStation控制器支持、超真实虚拟人像、空间小部件等重磅更新》
Apple正式发布visionOS26:为VisionPro带来PlayStationVR2控制器支持、更逼真虚拟形象、空间小部件等重磅更新在WWDC25上,Apple宣布推出visionOS26,这是专为AppleVisionPro打造的新一代操作系统。新版本带来了大量令人期待的功能升级,包括对PlayStationVR2Sense控制器和LogitechMuse空间手写笔的支持、更加真实的虚拟形象(Personas)、空间小部件、90Hz手势追踪、体积感更强的空间场景(SpatialScenes)、本地共享空间体验等等。🧩全新命名方式:从"版本号"到"年份标记"虽然你可能原本预期下一版VisionPro的系统会命名为visionOS3,但Apple已改为统一的年份命名体系。因此,这一版本被称为visionOS26--表示它将在2025年底正式发布,其生命周期将主要覆盖2026年全年。目前,visionOS26的首个开发者测试版已上线,开发者可立即开始体验与适配。🔥visionOS26主要新功能一览:🎮原生支持PlayStationVR2Sense控制器正如此前传闻已久的消息,visionOS26将原生支持索尼PlayStationVR2的Sense控制器(需单独购买)。Apple表示这将为VisionPro带来"全新类型的游戏体验"。支持的功能包括:6自由度(6DoF)空间定位电容式手指触控检测震动反馈支持目前尚不清楚是否支持PSVR2控制器标志性的高精度触觉反馈和电阻式扳机。👤更加逼真的虚拟形象(PhotorealisticPersonas)visionOS26对平台上的虚拟形象进行了全面升级,通过"行业领先的体积渲染与机器学习技术",让这些虚拟头像变得更加自然、真实。Apple表示新的Personas拥有:惊人的表情表现力与清晰度完整的侧面轮廓高度还原的发丝、睫毛与肤色此外,用户现在可以选择超过1000种眼镜款式来搭配自己的虚拟形象。生成过程依然快速便捷,只需将VisionPro戴上并进行几秒面部扫描即可完成创建。🧩空间小部件与持久化显示(PersistentWidgets)visionOS26引入了全新的"空间小部件"功能,你可以将它们放置在现实空间中,甚至可以贴合物理表面。每次戴上VisionPro时,这些小部件都会自动出现。支持自定义边框宽度、颜色和深度内置小部件包括:时钟、天气、音乐、照片开发者可通过WidgetKit创建自己的空间小部件该功能也可用于其他visionOS26应用中,提升整体交互体验。✋90Hz手势追踪:更灵敏、更流畅VisionPro初代手势追踪仅支持30Hz,我们在评测中曾指出这导致游戏操作响应迟缓。visionOS2提升到了开发者可选择使用的90Hz手势数据流。而在visionOS26中,Apple表示底层算法本身将以90Hz进行采样,极大提升了手势追踪的实时性与精确度。🌐全新"空间场景"(SpatialScenes):让照片"活起来"visionOS26推出了全新的SpatialScenes功能,利用"新一代生成式AI与深度计算技术",能够从任意图像生成多个视角的空间场景,让用户仿佛可以"探身查看"。可在Photos应用中一键转换普通照片为SpatialScene支持在Apple的SpatialGallery展示Safari浏览器中也可嵌入与浏览开发者可通过新增的SpatialSceneAPI集成至visionOS应用🧑🤝🧑本地共享空间体验(LocalSharePlay)此前,在VisionPro上无法实现多台设备在同一空间中看到相同的物体与界面(类似Quest和pico的"共位协同"功能)。visionOS26将通过升级版SharePlay技术与API实现这一功能,支持本地多人共享体验。✍️LogitechMuse空间手写笔支持visionOS26新增对即将发布的LogitechMuse空间手写笔的支持。Apple表示这款配件"提供了精准输入与协作应用(如SpatialAnalogue)的全新交互方式"。外观与功能类似于MetaQuest头显上使用的LogitechMXInk手写笔。🌐Safari空间浏览升级visionOS26对VisionPro上的Safari浏览器进行了重大改进:支持网页中嵌入3D模型用户可直接在页面中"操作"这些模型可动态调整文章布局、隐藏干扰项页面滚动时可激活"活生生"的空间场景🎥原生支持180°与360°视频visionOS26现在原生支持传统的2D180°与360°视频格式(不再仅限于Apple自家的ImmersiveVideo格式)。这意味着你可以轻松观看来自Insta360、GoPro、Canon等品牌设备拍摄的内容。🗂️主屏幕支持文件夹整理visionOS26终于支持主屏幕文件夹管理功能,就像你在iOS或iPadOS上那样组织你的app。目前默认只有一个文件夹,专门存放兼容的iPhone与iPad应用。📞解锁与接听iPhone来电借助visionOS26与iOS26的联动,你现在可以在佩戴VisionPro时解锁iPhone。同时,你也可以通过VisionPro接听iPhone来电,来电将自动重定向至visionOS。👀"眼神滚动"功能(LooktoScroll)visionOS26新增一个名为"LooktoScroll"的功能选项,允许用户"仅凭目光探索应用与网页"。这项功能的具体实现细节尚未公布,我们也很期待看看它是如何工作的!🌍AppleIntelligence多语言扩展visionOS2.4首次引入了AppleIntelligence(AI大模型),但当时仅支持美式英语。visionOS26将其扩展至:英语(澳大利亚、加拿大、印度、新加坡、英国)法语、德语、意大利语、日语、韩语、西班牙语💡开发者新工具:FoundationModelsFrameworkvisionOS26同时面向开发者开放了Apple设备端大语言模型(LLM)接口,可用于构建自己的visionOS应用。支持功能包括:结构化输出的引导式生成模型调用外部工具执行任务🧠总结:visionOS26是AppleVisionPro的一次全方位进化🚀visionOS26不仅大幅提升了VisionPro的交互能力、沉浸体验与多用户协作功能,还进一步强化了跨平台兼容性与开发者友好性。无论是游戏玩家、创意工作者,还是日常使用者,都能在这一体系中找到属于自己的空间体验。随着visionOS26的发布,AppleVisionPro正在逐步成为MR(混合现实)领域的标杆产品之一。
由Triband开发的搞怪解谜游戏《WhatTheCar?》,现已正式登陆AppleVisionPro头显平台。这款作品此前已在VR、iOS及其他平台上发布,而此次新版本标志着Triband首次尝试将他们的"无厘头哲学"带入混合现实(MR)领域。🏆回顾:Triband的"反直觉"神作系列早在2022年,我们就将Triband的另一款作品《WhatTheBat?》评为当年最佳VR游戏,因为它总能让你脸上不自觉地露出笑容,而且这种快乐持续不断。该团队还推出了:《WhatTheGolf?》《WhatTheCar?》以及多人对战游戏《WhatTheClash?》这些作品都延续了Triband的一贯风格:简化交互方式,强化搞笑效果,让玩家在一次次"这也能行?"中获得极大乐趣。🌟从手机到MR,《WhatTheCar?》的跨平台魔法如今,《WhatTheCar?》登陆AppleVisionPro,意味着Triband正式从移动端迈向混合现实。他们在这次尝试中展现出了惊人的创意和执行力--在此之前,我从未见过一款游戏能在手部追踪的MR环境和传统手机操作之间切换得如此自如。现在有了,它就是《WhatTheCar?》。开发团队负责人PeterBruun表示:"我们的游戏始终是为多种硬件平台设计的(比如iPhone、PC和AppleTV)。这让我们更容易针对不同输入方式进行设计和优化。但要真正把体验做得恰到好处,永远都是件难事。这次我们想打造一个更加荒诞的空间体验,我想我们成功了。"🧠控制方式:抽象中见真实,荒诞中藏逻辑!在游戏中,你面前会浮现一块巨大的虚拟屏幕,前方悬挂着一个方向盘。当你做出抓握手势时,方向盘就会自动跳进你的手中。由于MR手势控制缺乏触感反馈,Triband想出了一个巧妙的解决方案:当你双手间距变化时,方向盘也会随之缩放,从而模拟出真实的操控感。通过双手开合→调整方向使用拇指与食指捏合→模拟油门这种机制不仅有趣,还非常直观。尽管玩法看似完全偏离"正常开车"的预期,但你却真的感觉像在驾驶一辆车,只是方式完全不同罢了。🎮抽象化设计:让舒适与沉浸并存🧩Triband的设计思路在于:将复杂的3D移动抽象成屏幕上简单的2D操作同时保留手持方向盘的真实感这种"分层抽象"避免了VR中常见的眩晕问题,又保持了互动的趣味性。最终呈现的效果,竟让人感觉像是真正在开车--只不过是在一个充满想象力的世界里。🤝其他MR佳作对比:各有千秋AppleVisionPro上还有不少令人印象深刻的MR作品,例如:ResolutionGames的《Gear&Goo》:塔防玩法与手势控制结合出色SchellGames的《PuzzleSculpt》:类似扫雷的小品级解谜,趣味十足而在MetaQuest平台的HorizonOS上,我们也看到了一些令人兴奋的MR创新,如即将进入抢先体验的《LaserDance》和《Hello,Dot》。不过这些作品往往依赖于环境识别系统,有时会出现识别延迟或错误,影响整体体验。相比之下,《WhatTheCar?》更注重坐姿交互体验,无需起身走动,适合轻松游玩。🚀从通勤到客厅,Triband让游戏无处不在📱🕶️就像《WhatTheBat?》在2022年成为我们年度VR游戏一样,Triband在2025年再次找到了与玩家互动的最佳方式--不论你是通勤途中掏出手机,还是戴上VisionPro放松在家,都能无缝继续你的旅程。我甚至在AppleVisionPro上玩完一部分后,拿出iPhone接着玩,结果游戏完美继承了我的进度!为了验证手感是否一致,我还特地在手机上玩了一半关卡,结果发现--操作竟然同样顺畅!但说真的,我不打算在手机上完成整个流程了😅,因为MR版本实在更有意思。🧠总结:未来可期,当下已好随着HorizonOS和visionOS的不断完善,混合现实游戏的表现也将不断提升。但即便在今天,《WhatTheCar?》已经凭借其独特的设计理念,成为MR领域最出色的作品之一。它的成功原因与前作在VR领域的成功如出一辙:找到玩家所在的位置,用最快的速度打动他们的情感
由FunnyTales开发的摩托车竞速模拟游戏《VRiderSBK》,作为Superbike世界锦标赛(WSBK)的官方授权VR游戏,即将于本月晚些时候正式登陆PSVR2和Steam平台。🚀从Quest出发,迈向更广阔的赛道!这款作品最初于去年在MetaQuest平台发布,如今将在6月底登陆PlayStationVR2和PCSteam平台。新版本不仅带来了性能优化,还引入了更多竞技内容和视觉升级,为玩家带来更沉浸、更真实的摩托竞速体验🛵💨。🏁更多AI对手、更强画面表现!随着本次跨平台发布的消息,开发团队FunnyTales还确认:每场比赛最多可容纳22名AI赛车手同场竞技支持14条不同赛道提供更清晰的画面表现,让你在VR中感受每一圈的速度与激情无论你是摩托车爱好者还是竞速游戏玩家,《VRiderSBK》都将为你带来前所未有的虚拟赛事体验!⭐Quest版评测回顾:沉浸感与易用性兼具的佳作!我们在对Quest版本的评测中给予了4/5星的好评,并评价道:即便你不是狂热的体育迷,这款游戏也足以令人满意--它是一款出色的赛车模拟器。在Quest商店缺乏专业级竞速游戏的背景下,《VRiderSBK》成了一剂良药。它在优化与沉浸体验之间找到了平衡,远比预期更具可玩性。📅上线时间&平台信息:当前已可在MetaQuest平台游玩即将登陆:PlayStationVR2Steam(PCVR)📅发售时间:2025年6月月底前
《节奏光剑》BeatSaber迎来LadyGaga新曲《Abracadabra》,现已上线!🎶🗡️✨全球最受欢迎的VR节奏砍块游戏《BeatSaber》今天迎来一位重磅明星合作--LadyGaga!她的最新单曲《Abracadabra》现已作为付费DLC曲目上线。🔥全平台上线,售价$1.99💰自今日起,所有支持《BeatSaber》的平台均可下载这首新歌,包括:MetaQuest2及以上机型PSVR2PCVR头显该曲目被归类为《BeatSaber》最新的"ShockDrop"系列,定价为1.99美元。这是继Eminem的《Houdini》(去年9月)和KendrickLamar的《NotLikeUs》(今年早些时候)之后,又一首发售的流行大作。🎵不只是砍节奏,还有酷炫配色!和其他最新发布的曲目一样,《Abracadabra》支持:多人在线模式Arc(弧形音符)与Chain(连击音符)机制而且这次还带来了全新的光剑配色方案:红色+灰色,让你在挥舞中更具未来感与神秘气息🌑🟥。👑"MotherMonster"再度回归BeatSaber!这不是LadyGaga第一次与《BeatSaber》合作。早在2021年,游戏就推出了《LadyGaga2021音乐包》,收录了她的多首经典作品,包括:《BadRomance》《PokerFace》《Alejandro》此次再度携手,标志着她与VR游戏文化的又一次深度融合。📣更多巨星合作即将登场!Meta表示,《Abracadabra》的发布"拉开了一季繁忙发布的序幕",并暗示将有更多来自标志性艺人的作品陆续加入《BeatSaber》的曲库。也就是说,我们完全可以期待接下来会有更多重量级艺人加入这场VR音乐盛宴现在你可以在游戏内的"ShockDrop"板块中找到LadyGaga的《Abracadabra》
去年,微软正式宣布停止对整个WindowsMixedReality(WMR)平台在Windows11系统上的支持,标志着这家科技巨头在PCVR领域的探索正式落幕。然而,现在有一位Reddit用户表示,他正在开发一个非官方的SteamVR驱动程序,试图让这些头显"起死回生"。微软全面停用WMR功能❌随着Windows1124H2更新去年10月上线,微软正式弃用了以下组件:MixedRealityPortal应用WindowsMixedRealityforSteamVRSteamVRBeta这使得包括Acer、Asus、Dell、Lenovo、HP和Samsung在内的多家厂商所推出的PCVR头显几乎沦为"昂贵的废铁"🔌🗑️。当然,如果你尚未升级到Windows1124H2,或者仍在使用Windows10,微软表示你仍然可以通过SteamVR运行VR内容,直到2026年11月。但对HPReverbG2的用户来说,这仍是一个难以接受的现实--毕竟这款设备发布还不到五年。非官方驱动"Oasis"来袭!拯救WMR头显💡🎮近日,Reddit用户mbucchia宣布,他正在开发一款名为Oasis的非官方SteamVR驱动程序,目标是在今年秋季让所有WMR头显重新焕发活力!下方视频展示了初代HPReverb(2019)使用该驱动运行的效果:Oasis驱动特性一览✨无需依赖MixedRealityPortal:这是微软在Windows1124H2中废弃的核心组件之一。兼容Windows1124H2及更新系统版本支持完整的6DoF(六自由度)追踪兼容动作控制器mbucchia表示:"我无法测试所有WMR设备,但我可以确认它在初代AcerAH100上也能正常工作。理论上,任何品牌和型号都应能支持。"不过目前该项目仍处于封闭开发阶段,并且仅限于Nvidia显卡用户,因为SteamVR与GPU驱动之间存在特定接口限制。开发者身份曝光:前微软MR团队成员👨💻💼最引人注目的还不是功能本身,而是开发者mbucchia的真实身份。他在帖文中透露,自己目前是微软员工,曾参与过微软的混合现实项目。但他也强调:"我受到各种保密协议的约束,我非常小心地确保在这个项目中没有违反任何协议。我大量利用了SteamVR来完成底层工作,但并未使用任何微软的知识产权。"不提供Beta测试,也不开源⚠️🔒由于该项目涉及大量逆向工程,mbucchia表示:不会发布Beta版本或抢先体验也不会开源代码他表示:"很多代码是我深入逆向工程的结果。如果将这些代码公开,可能会被视为泄露SteamVR或NvidiaGPU驱动的内部机制。请注意,我绝不会侵犯任何专有/知识产权。出于对Valve和Nvidia的尊重,我也不会公布他们未公开的代码。"发布时间&后续计划📅💬mbucchia表示,他将在2025年秋季正式发布Oasis驱动,并会在发布前通过r/WindowsMixedReality子版块逐步分享更多细节。对于仍希望继续使用WMR头显的用户而言,这是一个令人振奋的消息。而对于整个VR社区来说,这也是一次由开发者自发推动的"技术复兴运动"。
由UNIVRS开发的VR动作冒险游戏《AttackonTitanVR:Unbreakable(进击的巨人VR:不可阻挡)》现已正式登陆pico4平台,并新增对Pico动作追踪器的支持。这款游戏最初于去年在MetaQuest平台发布,当时由于采用了抢先体验(EarlyAccess)模式,分为两部分陆续推出。而此次在Pico4上发布的版本则为完整版,功能与Quest版完全一致,并新增多项本地化改进。根据官方新闻稿,Pico4版本新增了七种语言字幕选项,并全面支持Pico动作追踪器,大大提升了玩家在地面移动时的沉浸感和真实体验。UNIVRS团队确认,使用动作追踪器后,玩家现在可以通过"原地踏步"实现向前移动(steppinginplace),这取代了此前仅限于手柄摇杆控制的人工移动方式(stick-basedlocomotion)。不过,空中飞行(使用ODM飞行装置)的操作方式保持不变。玩法简介:化身调查兵团新兵,对抗巨人!🛡️💥在《AttackonTitanVR:Unbreakable》中,你将扮演一名新加入调查兵团的士兵,使用标志性的Omni-DirectionalMobilityGear(全方位机动装置)和双刃剑,在三维空间中穿梭战斗,目标是精准斩断巨人的颈部。游戏支持单人游玩或在线多人合作,玩家可以与朋友一同组队挑战各种巨型泰坦。虽然我们曾在评测中表示其"战斗系统表现尚可",但也坦言这款游戏作为改编作品"最终未能令人满意"。
苹果预计将在明天的WWDC25(全球开发者大会)上公布visionOS的下一个重大版本更新。这款专为VisionPro设计的操作系统自去年2月首次推出以来,已经经历了多次更新和改进。从最初的visionOS1.1(4月)引入了革命性的"空间人物"(SpatialPersonas)远程临场技术,到visionOS2(9月)带来了数十项功能升级,再到visionOS2.2(12月)加入Mac虚拟显示的广角与超宽模式,以及visionOS2.4(今年3月)集成AppleIntelligence、空间画廊应用、iPhone远程安装支持等功能--visionOS正在逐步构建一个面向未来的空间计算平台。虽然按照苹果传统的命名规则,下一个大版本应称为visionOS3,但知名爆料人MarkGurman报道称,苹果计划改用年份作为版本标识,因此下一版本或将命名为visionOS26⏳。不论最终名称为何,我们都对visionOS的未来充满期待。它不仅将支撑当前的VisionPro,还将成为未来更轻便、更便宜的AppleVision系列设备的核心操作系统。官方已确认的功能🔍在我们畅想visionOS下一步可能带来什么之前,先来看看苹果官方已经透露的信息。过去几年,苹果通常会在WWDC前一个月左右公布新系统的无障碍功能。例如去年,苹果就在visionOS2发布前宣布了VisionPro的实时字幕功能(LiveCaptions)。今年,苹果再次提前曝光了VisionPro即将新增的两项辅助功能:透视放大功能(PassthroughMagnification):帮助用户放大视野中的物体;视觉描述与识别功能:通过本地AI描述、查找或朗读你视野中的任何内容。此外,苹果还确认visionOS将在未来几个月内支持脑机接口(BCI)输入设备,这无疑是一项极具前瞻性的技术突破。我们希望看到的五大visionOS新功能💡尽管苹果尚未正式公布visionOS下一版本的所有细节,但我们根据现有信息整理出了一些非常值得期待的新功能方向。以下仅为我们的期望,不代表苹果官方立场:1️⃣支持追踪控制器(TrackedControllers)目前VisionPro的交互方式主要依赖于"注视+捏合"手势(gaze-and-pinch)和手部追踪,这对许多应用场景来说已经是突破性设计,尤其适用于休闲游戏。然而,许多其他平台上的VR/混合现实游戏都依赖实体追踪控制器所提供的按钮、摇杆和扳机键。仅靠手部追踪,玩家很难真正感受到"抓取"、"握持"虚拟物体的真实感,而物理控制器结合触觉反馈则能显著提升沉浸体验。有迹象表明,visionOS很可能会支持追踪控制器:去年12月,MarkGurman曝料称苹果正与索尼合作,将PlayStationVR2控制器适配至VisionPro。本月早些时候,9to5Mac称苹果可能将这类控制器命名为"空间控制器"(SpatialControllers),并允许AppStore应用要求使用它们,在购买时提醒用户是否需要额外设备。2️⃣沉浸式应用中支持窗口多任务处理 Meta在其Quest头显上推出的HorizonOS已经实现了"无缝多任务"(SeamlessMultitasking)功能。这意味着用户可以在运行VR游戏的同时,保持浏览器等2D窗口的开启状态。举例来说,你可以在玩VR游戏的同时观看Netflix,或在VRChat中使用远程桌面处理工作事务。有趣的是,尽管visionOS在共享空间(SharedSpace)中运行体积应用(volumetricapps)时具备出色的多任务能力,但在沉浸式应用内部却无法实现类似功能--只有注册开发者可以使用Mac虚拟显示功能,普通用户则完全无法操作。虽然在系统层面实现这一功能会面临性能损耗和深度冲突等问题,但从用户体验角度来看,我们认为这是所有现代VR平台都应该具备的基本能力。3️⃣开放透视摄像头API 今年,Meta和Google都宣布向开发者开放其头显的彩色透视摄像头权限(需用户授权)。例如:扫描和识别QR码;在桌面上检测游戏板并叠加虚拟角色;用于企业引导场景的物理对象识别;结合云端大型语言模型(LLMs)的视觉AI功能。visionOS2已允许部分企业客户通过特殊许可访问VisionPro的透视摄像头,但该功能仅限于内部商业用途。相比之下,Google和Meta已向消费级开发者开放了相关权限,若苹果不跟进,visionOS将成为三大主流独立XR平台中唯一未开放消费者级透视摄像头访问权限的系统。值得一提的是,苹果在今年公布的无障碍功能中提到,将为特定"辅助开发者"提供访问透视画面的API,BeMyEyes是首个受益者。不过,这项功能的应用范围极为有限,短期内仍难以满足广大开发者的期待。4️⃣支持运行macOS(虚拟Mac)VisionPro初次亮相时被苹果定义为"空间计算机",但正如我们评测中所指出的那样,visionOS实际基于iPadOS构建,这也引发了关于"何谓真正的计算机"的讨论。目前你无法在VisionPro上安装XCode、Unity或Adobe系列专业软件(如Premiere、Photoshop),甚至连苹果自家的LogicPro和FinalCutPro也无法运行。真正的"计算机"应当具备创作能力,而非仅仅是消费工具。虽然visionOS提供了优秀的Mac虚拟显示功能(MacVirtualDisplay),甚至在visionOS2.2中加入了广角与超宽模式,让你拥有几乎无限的虚拟屏幕空间,但这仍然需要你拥有一台实体Mac。我们真正希望看到的是一个"虚拟Mac":即visionOS中直接运行macOS的虚拟机,无需携带实体设备即可享受完整的桌面级生产力体验。5️⃣全景式AppleMaps(类GoogleEarthVR)GoogleEarthVR自2015年推出以来,一直是VR世界中最震撼人心的应用之一。从上帝视角俯瞰地球的壮丽景色,令人叹为观止。Google计划在其AndroidXR平台上推出新版GoogleMapsVR,我们在三星设备上试玩后印象深刻。此外,Quest和visionOS上也有一些第三方替代品(如Fly、SpatialEarth),但它们并非免费且缺乏系统级整合。尽管AppleMaps初期饱受诟病,但近十年来苹果已投入大量资源优化地图服务,包括通过卫星图像、LiDAR数据和机器学习技术实现全球多地的3D地图展示。目前你可以在VisionPro上运行iPad版AppleMaps,但尚无专属visionOS应用。我们推测苹果正在打造一款类似GoogleEarthVR的沉浸式地图体验,值得期待!WWDC25主题演讲直播时间📅苹果将于北京时间6月11日凌晨2:00(美国太平洋时间6月10日上午10:00)举行WWDC25主题演讲,届时将通过Apple官网和YouTube直播。VR52将第一时间为你带来visionOS、VisionPro及潜在新硬件的最新动态。
由SquidoStudio(代表作:《DigiGods》)开发的VR游戏《GrandTheftAnimals》,将于下周登陆MetaQuest平台。这款游戏正如其名,是一款充满犯罪与混乱的沙盒体验--堪称动物版的"GTA(侠盗猎车手)"。在游戏中,你将扮演一只类人猿生物,在一个卡通风格十足的城市中横冲直撞,目标只有一个:不惜一切代价快速赚钱💰。从玩法来看,这意味着你要完成限时送货任务、抢劫无辜路人,当然还有--躲避手持电击枪的警察追捕🚨。你可以通过下方的预告片一睹《GrandTheftAnimals》中各种犯罪行为的精彩画面:动物式移动机制:像猩猩一样狂奔🏃♂️🐒和热门VR运动游戏《GorillaTag》类似,《GrandTheftAnimals》也采用了"用手臂拉动自己前进"的肢体交互移动方式,让你真正"像动物一样"在这个城市中穿梭。除了徒手奔跑,游戏中还提供了多种可劫持的载具,让你驾驶着四处横冲直撞,制造更多混乱与破坏🚗💥。丰富的角色装扮系统👕🕶️就像SquidoStudio的另一款社交沙盒游戏《DigiGods》一样,《GrandTheftAnimals》也将包含大量角色外观装饰选项,包括街头服饰、趣味服装等,让你的角色不仅是个罪犯,还要是个时尚达人!官方还表示,将在下周发布一份详细的内容路线图,透露未来将加入的新功能和更新计划📅。上线信息📆平台:MetaQuest上线时间:6月12日版本状态:抢先体验(EarlyAccess)如果你对自由度极高、画风搞怪又充满恶搞性质的开放世界感兴趣,那这款《GrandTheftAnimals》绝对值得期待!
nDreams最新推出的VR游戏《Reach》,被定位为这家工作室迄今为止最具野心的作品。该游戏将于今年晚些时候登陆所有主流平台,成为旗下新成立工作室nDreamsElevation自2022年成立以来的首部作品。在今日举行的FutureGamesShow-SummerShowcase上,《Reach》由业内资深人士ShuheiYoshida正式揭晓。nDreams表示,这款游戏的目标是实现"高自由度、电影级规模与沉浸式的全身体验"。在游戏中,玩家将扮演一位不情愿的英雄,踏上一段充满危险的旅程。通过"高度真实的互动机制",逐步揭开一个地下文明的神秘面纱。游戏承诺拥有先进的物理系统和基于手势的动作操作方式,让玩家使用各种工具对抗神话中的威胁。而开发团队也强调:每一个动作都会直接影响这场冒险的走向。"我们希望打造一款让玩家真正'身临其境'、感受到力量与掌控感的动作冒险游戏。"nDreamsElevation工作室负责人GlennBrace在官方声明中表示,"我们始终致力于通过丰富的物理交互与角色扮演体验来推动VR游戏的发展,《Reach》正是这些努力的结晶。"更多细节将在下周的VR开发者直面会上公开📅关于《Reach》的更多详情,将在下周一举行的VRDeveloperDirect活动中揭晓。届时将带来更深入的游戏玩法展示、幕后制作花絮等内容。本次开发者直面会还将包括来自Flat2VRStudios的RoboquestVR、MazeTheory刚刚公布的《神偷VR:暗影传承》(ThiefVR:LegacyofShadow),以及VertigoGames的未公开项目。平台信息🕹️《Reach》将于今年晚些时候登陆:MetaQuest3/3SSteamVR(PC)PlayStationVR2此前我们已试玩过该作的原型版本,不久后也将分享我们的完整评测与体验心得。
今年早些时候,Meta推出了AriaGen2,这是其研究型智能眼镜的最新一代产品。当时,Meta并未透露太多细节,但最近公司表示,这款设备将在明年某个时间点向第三方研究人员开放,并借此展示未来AR眼镜可能具备的功能。在一篇最新的博客文章中,Meta披露了更多关于AriaGen2的信息,包括其外观设计、音频系统、摄像头、传感器以及本地计算能力。尽管AriaGen2没有显示功能,因此无法实现完整的增强现实体验,但它所搭载的技术已经为未来的AR眼镜奠定了基础。更强大的计算机视觉能力未来全天候佩戴的AR眼镜最核心的需求之一就是强大的计算机视觉(CV)能力,比如对室内空间进行建模、识别物体等。在这方面,AriaGen2相比第一代有了显著提升:CV摄像头数量从原来的两颗增加到四颗;支持120dBHDR全局快门;视野范围扩大;双眼重叠视场达80°,大幅提升了3D跟踪与深度感知能力。此外,Meta还展示了AriaGen2在一个房间内运行SLAM(同步定位与地图构建)时的表现:新增传感器与更智能的本地计算除了视觉能力,AriaGen2还在传感器方面进行了升级,包括:经过校准的环境光传感器;嵌入鼻托的接触式麦克风,用于在嘈杂环境中捕捉更清晰的语音;心率传感器(PPG),可采集生理数据。更重要的是,Meta表示AriaGen2的本地计算能力也大幅提升,其定制协处理器支持实时机器感知任务,包括:视觉惯性里程计(VIO),实现6自由度空间追踪;高级眼动追踪(注视方向、双眼会聚、眨眼、瞳孔大小等);3D手势追踪,提供精确的动作数据和标注;SubGHz无线电技术,可在多设备之间实现亚毫秒级时间同步。极致轻量化设计尽管集成了多项前沿的计算机视觉、机器学习和传感技术,AriaGen2的重量却仅有74–76克,非常接近普通眼镜的使用体验。相比之下,一副普通眼镜的重量通常在20–50克之间,具体取决于材质和镜片厚度。Meta提供了8种尺寸选项,以适应不同用户的头部和鼻梁形状。同时,这些眼镜也像传统眼镜一样可以折叠,便于收纳和携带。值得注意的是,Meta尚未公开说明电池续航表现,不过眼镜右侧臂上配备了USB-C接口,可能支持外接电源或电池包。人类感知×机器视觉的融合AriaGen2不仅能追踪和分析用户所处的环境,还能捕捉用户对该环境的主观感知反应。例如在演示中,它能够记录用户准备咖啡时的眼球注视和心率变化--这些数据可用于判断用户对外部刺激的反应。除此之外,它还能通过CV摄像头、磁力计、两个惯性测量单元(IMU)和气压计,记录用户在空间中的相对位置与移动轨迹。对于以人为中心的研究项目来说,这是一个巨大的数据宝库;而这类信息,也正是未来AR眼镜将需要收集的关键数据。向AR眼镜迈进的关键一步Meta表示,AriaGen2"将为定义下一代计算平台的技术创新铺平道路",这个平台无疑就是AR。尽管要真正取代智能手机还有很长一段路要走,但Meta正在通过Aria和原型机Orion(一款连接无线计算单元的AR设备)不断推进这一目标。目前市面上已有一些面向消费者的AR眼镜,例如XREALAir2Pro,但在轻薄化、长续航和强大性能之间取得平衡仍然极具挑战。Meta首席技术官兼RealityLabs负责人AndrewBosworth表示,基于Orion的AR设备将在本十年内推出,价格预计将高于智能手机。即将亮相CVPR2025预计很快会有更多关于AriaGen2的消息披露。Meta已确认将在2025年6月11日至15日于纳什维尔举行的CVPR2025上展示该设备,并提供互动演示。届时,我们将带来更多来自现场的详细报道。
FireproofGames(代表作:《未上锁的房间VR:暗黑元素》)推出的VR解谜冒险游戏《幽灵镇(GhostTown)》,现已在Steam平台上线了PCVR版本的试玩Demo,为即将于下周举行的SteamNextFest预热。此外,《PuzzlingPlaces》也将在活动中亮相。《幽灵镇》最早于去年四月登陆MetaQuest平台,背景设定在上世纪80年代,玩家将扮演一位由女巫转职为幽灵猎人与驱魔师的主角EdithPenrose,调查自己弟弟离奇失踪背后的阴暗秘密。此次发布的SteamVRDemo让更多PC玩家得以提前体验这款备受好评的作品。虽然早在最初公布时就已得知,《幽灵镇》也将登陆PlayStationVR2和Steam平台,但FireproofGames目前仅确认这些版本将在2025年内推出。其官网新闻页面写着"完整版游戏即将上线",但并未说明是否适用于Steam。在最近的《幽灵镇》评测中获得了极高评价,被称赞为"一款令人沉浸其中的超自然VR冒险作品",并授予4.5/5分的高分。毫不夸张地说,《幽灵镇》是今年迄今为止最优秀的VR游戏之一。它不仅延续了《未上锁的房间VR》系列一贯的高品质交互设计,还在视觉表现(尤其在Quest3上)、叙事深度和解谜机制方面表现出色,堪称精神续作。目前,《幽灵镇》已在Quest平台开放游玩,而Steam和PlayStationVR2版本预计将在今年晚些时候正式上线。
Meta最近在其Quest设备上的HorizonOS浏览器v39版本中,引入了一项重要的实验性功能:自动共位(Colocated)WebXR支持。这意味着多个佩戴VR头显的用户现在可以在同一个物理空间中,通过网页浏览器建立共享的虚拟坐标系,从而实现协同交互。此前,在WebXR中实现共位体验通常需要用户手动使用控制器或手势去"触碰"一个共享参考点来对齐坐标。而现在,这项新功能可以让设备在进入WebXR会话时自动创建一个共享的空间坐标系统,大大简化了开发流程和用户体验。Meta浏览器团队工程师RikCabanier分享了一段简短视频演示该功能的实际运行效果,并在GitHub上提供了示例代码供开发者参考。这个演示项目使用了PeerJS来实现在不同头显之间的本地网络连接。你也可以亲自在自己的Quest设备上访问sharedshooter.arvr.social进行测试。以下是Cabanier从开发者角度对这一"共享空间(SharedSpaces)"功能的详细说明:共享空间的工作机制共享空间与房间大小绑定每个共享空间的范围受限于房间的大小。距离较远的头显将不会加入当前空间,但如果它们靠近后,就有可能自动加入该空间。站点隔离原则共享空间只对特定网站可见。例如,bar.com/a.html和bar.com/b.html虽然属于同一域名,但会被视为两个不同的页面,因此各自获得独立的共享空间和唯一标识符(UUID)。初始化过程可能有延迟当WebXR会话启动时,可能需要几秒钟时间才能正确识别并加入对应的共享空间。在这期间,浏览器会返回一个默认的共享空间。一旦正确的空间被识别,就会触发一个"reset"事件,并建立新的坐标系统和UUID。如果当前设备是第一个进入沉浸式模式的,则不会触发reset事件。参与者可以自由进出用户可以随时加入或退出共享空间。当重新启动WebXR会话时,他们仍能重新建立相同的共享坐标系统。(设计上规定:第一个创建共享空间的设备将成为整个共享坐标的原点。)退出WebXR会丢失共享空间当某个参与者退出WebXR会话后,它将失去对该共享空间的访问权限。再次进入时,需要重新建立共享空间。最后一个离开者决定空间是否保留所有参与者都可以自由地加入或离开共享空间,但一旦最后一个参与者离开,该共享空间将被销毁。未来可能会支持恢复功能,但目前还在收集开发者反馈以确定合适的API设计。当前限制:仅限于Quest头显之间需要注意的是,目前这项功能仅支持Meta的Quest系列头显,因为它底层依赖的是Meta自有的SharedSpatialAnchors(共享空间锚点)技术,而目前还没有面向OpenXR的通用厂商中立扩展标准。这种限制不仅存在于WebXR中,对于本地应用也同样适用。举例来说:AppleVisionPro目前尚未支持共享锚点;pico则使用自己独立的一套共享锚点系统。如何启用SharedSpaces功能?如果你希望在你的Quest浏览器中尝试这一功能,请按以下步骤操作:在浏览器地址栏输入:chrome://flags搜索关键词:"WebXRexperiments"将该选项设为"Enabled"重启浏览器即可生效这项功能的推出标志着WebXR在多用户协作体验方面迈出了重要一步。虽然目前还存在平台兼容性的限制,但它为未来的共享虚拟空间开发提供了宝贵的实践基础。如果你是WebXR开发者,不妨前往官方提供的示例地址进行测试,探索如何利用"共享空间"打造更具沉浸感的多人在线体验。
日本Expo2025,感受这场传统世博会在新时代背景下的转型,并尝试将其与同步推出的虚拟展馆进行对比。这不仅是一场科技与文化的盛宴,更是一次关于"人如何连接"的深刻反思。Expo2025是一场将历史悠久的世界博览会概念带入当代的作品。自19世纪末以来,世界博览会一直是国家和企业展示实力与科技进步的重要舞台。它融合了软性政治宣传与科技展览的元素,参观者会看到阿童木探索iPCS细胞与未来医疗,星形吉祥物歌颂"自由之地"美国(以及AI),甚至还能在一个展位里体验《怪物猎人》的XR展示。这些活动的历史意义不可小觑。法国为1889年世博会建造了埃菲尔铁塔;其他博览会则见证了摩天轮和移动电话的首次公开亮相。简而言之,这些活动不仅反映了当下世界的面貌,也展示了人类对未来的想象。Expo2025在2018年赢得举办权后,便开始筹备。而真正动工建设时,却正值新冠疫情肆虐和元宇宙热潮兴起之时。早在疫情爆发前,日本就为Expo2025设定了"设计我们生活的未来社会"的主题。人们探讨如何构建一个可持续发展的未来社会,在这个社会中,人类既能重新思考当前的生活方式,又能保持繁荣发展的潜力?官方宣传材料反复强调,这将是"未来社会的实验室",是一个专注于拯救、赋能和连接人类的实验平台。如果是在2020年封锁期间构思这样一个大型展示项目,为什么不设想一个"虚拟世博会"呢?在线下,所有人都可以前往日本大阪亲自参观Expo2025;而对于无法亲临现场的人们来说,这也将是有史以来首个通过网络全球开放的虚拟世博会,让各国和企业足不出户就能在全球舞台上展示自己。考虑到日本许多活动至今仍在拥抱虚拟社区,这种虚拟世博会的概念并非过时产物,也不落后于日本其他组织的努力。线上交流和活动并没有随着解封而消失--大家仍在使用Zoom,东京电玩展也在恢复线下举办的同时继续保留其虚拟版本。不同的是,如今人们更渴望面对面的互动和真实的乐趣,而不是一直盯着屏幕。如果这个名为"VirtualExpo:YumeshimaIslandsintheSky"(以大阪人工岛Yumeshima命名)的虚拟展馆要在这样的环境中取得成功,它就必须提供一种现实中难以实现的独特体验,哪怕是在实体展会上也是如此。虚拟展馆的技术支持与初步印象虚拟展馆支持手机、PC和VR设备访问。当有人正式参观前几天提前进入系统时,第一印象相当不错。它远不止是一个普通的VRChat场景,而是一个独立的免费应用程序,内容丰富到足以被称为一款完整的游戏,而非附属体验。登录Expo账号后,用户首先会进入一个角色创建界面。虽然面部样式、服装、发型、发色和肤色选择有限,但依然提供了足够的个性化空间。接着他们会被投放到应用的主广场,在那里可以遇见可爱的虚拟角色Soramin,然后开始自由探索整个展馆。令人惊喜的是,这里并不是一个静态的空间。虚拟展馆的日程安排与现实中的世博会同步进行。如果现实中正在举行某个国家日,虚拟世界也会挂满对应的国旗。作为一个面向全球观众的世博会,它还内置了多语言语音和文字聊天翻译功能,让人们能轻松与来自世界各地的玩家交流。从纸面描述和初次启动应用的体验来看,它确实像是一场真实而独特的虚拟活动,充满了各种可做之事和可供探索的展馆。然而,当深入了解后,会发现一些问题。"合同式参与"现象与展馆局限这个虚拟展馆给人一种"合同义务"的感觉,明显可以看出很多国家只是被迫参与,后来才意识到虚拟部分并非优先事项。每个虚拟岛屿上都设有几个展馆和虚拟体验区,鼓励玩家步行探索。Soramin和世博会的官方吉祥物MyakuMyaku会在开放区域进行一些可爱的互动活动,让整个环境显得更加生动。有些还会赠送表情动作或新服饰。这些虚拟岛屿几乎完全按照实际展馆的布局1:1复刻,这对从虚拟转现实参观的人来说非常有帮助。事实上,有人在虚拟展馆中逛了一圈后,形成了清晰的心理地图,当他几天后亲自前往大阪参展时,这个心理地图真的帮到了他--因为现实中的Expo并不容易导航,甚至在他待了整整10小时之后,仍然发现了之前没注意到的新展馆。然而,展馆本身的体验可以说是参差不齐。许多展馆根本就是"空壳",玩家加载了半天,结果只看到一个空荡荡的房间,墙上贴着一张模糊的展馆效果图和一段文字介绍--而这正是实体展馆中实际展出的内容。虽然每个虚拟展馆的外观都高度还原了现实中的建筑,看起来极具吸引力,但大量展馆只是套用了一个模板化的结构。在大约40个虚拟展馆中,超过50%都是这种复制粘贴式的展示方式。这就像一个人兴致勃勃地去参加一场派对,却在即将进门时发现门被锁上了。当然,也有一些国家尝试做出一些特色内容。例如莫桑比克展馆就设计了一段导览式体验,展示了该国的文化与发展,并配有高质量的照片和演讲音频。离开时还能获得一套专属服饰作为奖励。不过,这类展馆也暴露了另一个问题:它们往往依赖YouTube视频来呈现无法通过简单3D模型或文本框表达的内容,而这些视频在应用中运行得并不稳定。少数展馆真正拥抱虚拟媒介也有少数展馆真正理解了虚拟空间的可能性,并在此基础上打造了与现实展馆主题一致但形式新颖的体验。在Expo2025的众多国家与企业展馆之外,还有六个"特别展馆"(SignaturePavilions),由日本各地的艺术家与教授主导设计,旨在挑战博览会主题,并展现他们的创意理念。例如:石黑浩教授(IshiguroHiroshi)探索了生命的未来;内井昭仁艺术家(OchiaiYoichi)则通过一项实验性展示质疑数字技术下的人性本质:系统会扫描参观者并生成高精度的数字化分身,供人交流互动,从而提出一个问题--在AI和数字化时代,我们如何识别并保留"人性"。但在虚拟展馆中,这项核心功能无法实现。于是他们转而设计了一种令人眩晕的体验,试图重现那种让人迷失自我、反思身份的氛围。虽然结构混乱且略显恐怖,但它确实传达了原本意图。像这样的展馆,或是松下展馆将儿童绘画变成动态作品的创意展示,才真正体现了虚拟展馆应有的潜力。遗憾的是,大多数展馆并没有朝这个方向努力。如今的VirtualExpo更像是一个充满破碎梦想的空间,甚至没有承诺中那些可以一起交流的参观者,使得整个体验显得格外冷清。特别讲座直播:唯一的亮点之一一个值得一提的优点是,用户可以在虚拟展馆中观看现实中正在进行的专题讲座直播。为了配合博览会的主题与各国国家日活动,主办方偶尔会邀请嘉宾讨论可持续发展、社会责任等议题,比如地震后社区重建、水资源保护等。可以在虚拟展馆中观看这些直播,尽管它们本质上只是YouTube直播流,甚至可以直接通过网页观看,无需进入应用。理想很美好,现实仍不足让无法亲临大阪的观众也能在线参与世博会的想法是美好的,加上虚拟角色定制与社交功能的设计,似乎能带来一种独特的沉浸感。但在现实中,很多展馆提供的只是空房间或YouTube视频,远远谈不上是一场"世界博览会"的体验。事实上,在亲身参观完实体世博会之后,有人更加坚定地认为,这个VirtualExpo展示了当前元宇宙愿景中最根本的问题之一。即便这个应用能完美还原博览会的虚拟形态,它仍然忽略了最重要的一点:人类之间那种自发性的连接与探索,目前还无法通过虚拟手段复现--而且也许永远都无法完全复制。但这也没关系。实体展会的魅力:无法替代的真实瞬间记得那是一个温暖多云的星期四,有人满怀期待地前往Expo2025。为了不错过任何精彩,他提前做了详尽的研究,列出了必看展馆清单,甚至还预约了一些需要提前登记的场馆。法国有经典艺术展,波兰带来了肖邦音乐表演,当天还有一个太鼓节仅限那天举办!当时他真的很兴奋!然而几乎一到现场,他的计划就被打乱了,只剩下几个提前预约的展馆。但正是这种随遇而安的心态,让他度过了更有意义的一天。最大的快乐往往来自于最意想不到的地方。他在等待第一个预约的间隙,无意间走进了马来西亚展馆。入口处的小平台上,几位舞者正在表演传统的马来舞蹈,动作优雅流畅,男女舞者之间的互动充满趣味。虽然他对这一领域并非专家,但那种从脚跟到脚尖轻盈跳跃的动作,真的令人着迷。演出快结束时,舞者们冲进人群,把他和其他来自世界各地的观众拉上舞台一起跳舞。短短五分钟里,大家一起学习基本舞步,模仿他们的动作,最后全场欢呼雀跃,不同语言、不同文化的人们相互拥抱、鼓掌,因为他们刚刚以陌生人的身份共同完成了一场即兴共舞。虚拟体验的局限:无法复制的"偶然"虚拟世博会即使做到极致,也只是开发者所能设想和编程进去的内容。用户依然只能在设定好的范围内进行互动,无法真正自由发挥。他会开始以任务清单的方式看待展馆,而不是出于兴趣去探索。VirtualExpo甚至鼓励这种行为,因为它承诺完成所有展馆浏览后会有奖励。只有亲身经历实体展会,他才真正了解了一些之前知之甚少的国家,也收获了许多本不可能拥有的体验。在Expo2025,他吃了正宗非洲咖喱,还在排队时与一位陌生人聊起了彼此的生活故事。而在VirtualExpo中,他只是坐"太空列车"看一堆AI宣传片,还收到了NFT铸造邀请。技术不能取代人性的本质有人喜欢VR,也相信它能在某些方面超越传统媒介。但技术永远无法取代让我们成为"人类"的那些东西--哪怕只是一个偶遇的微笑,一次被人拉去跳舞的手感。科技可以增强生活体验,但如果用AI聊天机器人代替友谊,用虚拟聚会代替真实见面,那么所失去的,恰恰是人性中最宝贵的部分:那种不可预测、无法编程的随机性。是否有一天,某个平台能捕捉到我们在街头漫步、向他人微笑时那种自发的情感联结?能否再现当别人拉着你的手带你跳舞时,指尖的触感?也许可以,但现在还做不到。如果我们继续沿着当前这条名为"元宇宙"的道路走下去,也许永远也无法做到。VirtualExpo无法复制真实的喜悦,因为真正的喜悦和意外,从来不在计划之中。
在刚刚结束的GoogleI/O大会上,Google展示了它对AndroidXR的愿景。但你可能没有意识到的是:运行在头显上的"AndroidXR"和运行在智能眼镜上的"AndroidXR",其实是两个完全不同的操作系统。这个名字最早是由《商业内幕》(BusinessInsider)记者HughLangley在18个月前首次报道出来的。据他当时的独家消息,Google内部将用于头显的操作系统称为"AndroidXR",而用于智能眼镜的轻量级版本则被称为"AndroidmicroXR"。但现在,事情变得有些模糊了。从内部命名到公开宣传:Google把两套系统统一叫"AndroidXR"自Google去年12月正式公布这两个平台以来,官方却开始将它们统称为"AndroidXR"。例如:三星的设备被称为"AndroidXR头显"Google自己展示的智能眼镜原型(在TED和I/O上亮相的带小HUD显示的眼镜),则被称为"AndroidXR眼镜"这种命名方式不仅令人困惑,而且容易误导公众。因为实际上,它们是两个完全不同、定位截然相反的操作系统平台。两者之间到底有什么区别?运行在头显上的AndroidXR:是你在手机或平板上熟悉的Android体验的延伸;完全独立运行,具备完整的PlayStore支持;提供完整的开发者SDK,支持原生应用开发;更像是一个"便携式VR/AR操作系统"。运行在智能眼镜上的AndroidXR:是一个高度裁剪、功能受限的Android版本;目前Google尚未公布任何SDK或平台细节;实际运算大多依赖连接的智能手机,类似于Ray-BanMeta眼镜的工作模式;更像是一个"轻量级信息显示终端",而非完整计算平台。虽然二者共享同一个AOSP(Android开源项目)内核,并且都集成了部分Google服务,但除此之外,它们几乎没有任何相似之处。类比理解:如果AppleWatch叫做"iOS设备"想象一下,如果苹果把AppleWatch称作"iOS设备",或者Meta把Ray-BanMeta眼镜说成运行HorizonOS,那是不是也会让人感到迷惑?这就是目前Google对"AndroidXR眼镜"的定义所带来的问题--它让外界误以为这些设备拥有和头显一样的功能与生态支持。Google的策略动机是什么?我推测,Google之所以有意模糊这两者的界限,可能是出于以下几点考虑:Ray-BanMeta眼镜的成功让穿戴式AR成为消费市场的热门话题;Meta的Orion原型引发了大量关注;初代AppleVisionPro面临市场冷遇,也让Google不想把自己归类为"高端头显厂商"。因此,Google很可能希望借助"AndroidXR"这个统一品牌,制造一种"我们已经全面布局XR生态"的印象,而不是明确区分这两个平台的不同定位。混淆的风险:XrealAura让"眼镜"概念更加模糊就在Google发布其智能眼镜的同时,Xreal推出了ProjectAura,一款外观类似太阳镜、实则通过外接计算模块运行"头显版AndroidXR"的设备。这就意味着,"AndroidXR眼镜"这个词现在有了双重含义:一类是面向消费者的轻量级智能眼镜(如Ray-BanMeta)一类是更接近头显形态、功能强大的"类眼镜设备"(如XrealAura)换句话说,你未来可能会看到两种都叫"AndroidXR眼镜"的产品,但它们背后的操作系统、功能、应用场景却完全不同。对用户和开发者的潜在影响当一个开发者宣布他们推出了一款"面向AndroidXR"的应用时:用户是否能明白,这款应用并不能在Ray-BanMeta或WarbyParker合作的眼镜上运行?开发者是否清楚,他们的"AndroidXR应用"其实只能在头显设备上使用?对于像你这样的VR52读者来说,这些差异或许一目了然。但对于普通消费者而言,XR设备之间的区别还远未普及,这种模糊命名只会加剧认知混乱。解决方案建议:给眼镜平台起个新名字!要解决这个问题其实很简单:给智能眼镜平台起一个全新的名字。比如:GlassOS(曾用于初代GoogleGlass)GlassesOS(类似WearOS的命名逻辑)这样可以清晰地划分出两个平台的边界,也便于用户和开发者理解不同设备的能力差异。结语:营销vs透明度的博弈截至目前,还没有任何一家硬件厂商真正发布过"AndroidXR"设备。也许等到产品正式上市后,Google会通过市场营销和公关手段,澄清这两个平台的区别。但从目前的信息来看,我并不乐观。Google显然更倾向于制造"统一生态"的幻觉,而非清晰的产品定位。如果你是开发者、媒体人或早期采用者,了解这一区别至关重要。因为它不仅关系到你能做什么、不能做什么,也决定了你对未来XR生态发展的判断方向。
据科技媒体LowPass报道,曾创办在线手工艺品交易平台Etsy的联合创始人兼前CEORobertKalin,目前正在开发一款外形类似放大镜的手持式混合现实(XR)设备。这款设备来自Kalin创立的新创公司DoppleWorks,据称其产品代号为Loop。最近,该设备通过了美国联邦通信委员会(FCC)的认证流程,意味着它可能已经接近正式发布。📄FCC文件透露有限信息:IP65防水、支持WiFi/蓝牙/NFC通常情况下,FCC提交的应用文件中会包含设备的基本规格信息,但此次关于Loop的文件内容被大量涂黑处理,仅披露了以下几点关键信息:是一款便携式、电池供电设备支持Wi-Fi和蓝牙连接具备NFC功能设备防护等级达到IP65(防尘+防泼溅水)这意味着Loop可以在日常使用中应对一定程度的灰尘和液体接触,适用于室内外多种场景。🔍专利曝光外观设计:手持式空间计算设备虽然目前尚未有官方图片流出,但DoppleWorks曾提交一项名为《专用手持空间计算设备》的专利申请,并附上了多张设计图及使用场景描述。从专利图来看,Loop可能具备以下特性:设备可垂直放置于一个专属底座上,推测这可能是主要的充电方式;内部或搭载6自由度(6DOF)追踪传感器、麦克风、摄像头、扬声器;还可能支持眼动追踪技术;但专利中并未提及镜头系统,因此尚不清楚用户是将其贴近眼睛使用(类似单筒望远镜),还是像放大镜一样保持一定距离观看。🎮应用场景广泛:教育优先,兼顾游戏娱乐从专利覆盖的内容来看,Loop并不局限于单一用途,而是涵盖了包括:游戏教育儿童互动学习等多样化场景其中,教育领域被认为是该设备最有可能率先落地的方向。DoppleWorks还提交了一项商标申请,将公司定位为一家专注于开发"电子学习玩具"的科技公司。👨💻团队背景揭秘:VR老兵集结,硬件经验丰富LowPass的进一步调查发现,DoppleWorks的创始团队成员大多拥有深厚的VR行业背景,其中包括多位曾参与过知名社交VR平台的工程师:MozillaHubsAltspaceVR这两款平台虽已关闭,但在早期社交元宇宙探索中具有重要地位。公司的CTOGeoffChatterton更是资深硬件专家,曾在PayPal担任硬件负责人,此前还在Apple、Dell等公司任职,并参与过智能手表初创公司WimmLabs的开发工作--该公司后来被Google收购。🧩设计思路独特:无头显、无镜头,有何优势?如果Loop最终确实采用"放大镜式"的非头戴设计,那它将与传统XR头显形成鲜明对比:✅优势:不需要考虑头显适配问题,儿童也能轻松使用;设计简洁,便于短时间快速体验;可作为"魔法窗口",引导用户进入混合现实世界。❌潜在挑战:若设备更像是"手持AR屏幕",那它的体验可能与智能手机AR应用相似;缺乏沉浸感,需依赖内容创新来体现差异化。🤔总结:Kalin再出发,能否颠覆XR教育市场?RobertKalin此次回归科技界,选择了一个极具挑战性的方向:打造一款面向儿童与教育市场的混合现实设备。Loop如果成功推出,或将开辟一条不同于主流头显路线的XR新路径。而DoppleWorks所拥有的跨界人才组合、教育导向的产品定位,以及对用户体验的深刻理解,也让外界对其未来表现充满期待。
VR52网成立于2015年,平台提供VR头显、AR眼镜、配件外设、厂商、测评、行业资讯、游戏与应用、展会活动等。