AppleVisionPro用户现已可观看电影《F1》的沉浸式预告片,通过该体验,你将仿佛坐在布拉德·皮特身旁,与他一同完成一次完整的赛道驾驶。和AppleTV上所有沉浸式内容一样,《F1》HotLap预告无法录屏、投屏或截图,确保了内容的沉浸性和版权保护。三分钟体验流程解析整个体验时长约为3分钟。前一分钟的内容以常规的3D视频形式呈现在一个虚拟的曲面屏幕上。期间,《F1》导演JosephKosinski通过幕后花絮与电影片段,讲解了在真实赛道环境中拍摄演员亲自驾驶赛车所面临的技术挑战。从第二分钟开始,正式进入沉浸式体验部分:布拉德·皮特驾驶F1赛车完成一圈赛道的真实画面,由安装在车辆右侧的一个摄像头拍摄。技术表现分析尽管这是一段"沉浸式"内容,但其技术水准并未达到苹果官方ImmersiveVideo(沉浸式视频)的标准。整体比例略显失真,车身与外部环境显得过大;视角也未覆盖完整的180度,实际视场角估计约为140度。此外,画面运动清晰度一般,暗示其帧率可能低于苹果惯用的90fps标准。通过后视镜可以看到摄像机本体,表明这段视频使用的是传统单目鱼眼镜头相机,并非苹果典型的双目180°立体拍摄方案。考虑到空间限制,这种选择可以理解--一辆真正的180°3D沉浸式摄影系统显然无法安置在F1赛车的驾驶舱旁。不过,画面中确实存在一定的立体感,推测是通过机器学习进行了2D到3D的后期转换处理。技术启示录:便携性决定未来《F1:HotLap》不仅是一次宣传尝试,也揭示了一个现实问题:全尺寸沉浸式拍摄设备在移动性和场景适配方面仍存在局限。这也意味着,未来的沉浸式内容制作需要更小巧、更灵活的摄像系统。正如这部预告片所展现的那样,沉浸式技术的发展不仅依赖画质与算法,还受限于物理空间和拍摄条件。电影同步上映值得一提的是,此次预告所推广的电影《F1》已于今日在全球多地影院上映,美国地区则将于本周五正式上映。
这是第一次有苹果高管亲自展示自己在visionOS中的人物形象(Persona)。苹果全球营销高级副总裁Greg"Joz"Joswiak最近在社交平台X上回应YouTuberiJustine的一段视频时,分享了一段自己使用visionOS26中全新升级的Persona功能的短片。此前,iJustine发布了一段视频,热情洋溢地展示了visionOS26带来的全新Persona功能。而Joswiak的回应无疑进一步表明:苹果内部对这一功能的信心正在增强。🧠visionOS26升级亮点:更真实、更细腻的人物形象visionOS26是在上周的WWDC25(苹果全球开发者大会)上正式公布的。作为这次更新的重要亮点之一,全新的Persona在视觉表现和细节还原方面实现了显著提升。苹果官方表示,新一代Persona借助了"行业领先的体积渲染与机器学习技术",不仅在表情表达和画面清晰度上有了飞跃式进步,还支持:完整的侧面轮廓显示高度逼真的头发、睫毛与肤色还原此外,系统还为Persona提供了更加丰富的配饰选择,特别是眼镜种类已扩展至超过1000种不同款式。尽管功能大幅升级,生成这样一个高质量的Persona仍然只需几秒钟--用户只需将VisionPro头显举到面前,系统即可完成面部扫描并自动生成专属形象。📈从"诡异谷"到"可信形象":Persona的进化之路回顾历史,苹果VisionPro初代Persona曾在去年产品发布时遭到广泛批评,甚至被网友戏称为"被诅咒的形象(cursed)",认为它们落入了"恐怖谷效应"的陷阱。但随着时间推移,苹果持续优化算法和渲染技术,Persona的真实感逐步提升。而visionOS26的这次更新,则标志着一个质的飞跃。Joswiak主动分享自己的Persona视频,说明苹果高层已经认可当前Persona的质量水平,并且该功能也不再标注为Beta测试版本,意味着其稳定性与实用性已达到苹果标准。👑目前唯一公开佩戴VisionPro的高管仍是TimCook值得一提的是,截至目前,只有苹果CEO蒂姆·库克(TimCook)曾被公开拍摄到佩戴VisionPro头显。那是在设备发布前一天接受《VanityFair》采访时所展示的画面。如今,随着visionOS26的推出以及高管们开始亲自使用Persona功能,外界对于VisionPro产品的信心和期待也在不断提升。📌编者按:VisionPro作为苹果进军空间计算领域的旗舰产品,其Persona功能的不断进化不仅是用户体验上的改进,更是苹果向开发者和消费者传达"虚拟身份"重要性的关键一步。从"尴尬模仿"到"真实呈现",苹果正一步步让数字化身变得可信、可用、可亲。未来,这些虚拟形象或许将成为我们在元宇宙世界中的第二张脸。
Apple正式发布visionOS26:为VisionPro带来PlayStationVR2控制器支持、更逼真虚拟形象、空间小部件等重磅更新在WWDC25上,Apple宣布推出visionOS26,这是专为AppleVisionPro打造的新一代操作系统。新版本带来了大量令人期待的功能升级,包括对PlayStationVR2Sense控制器和LogitechMuse空间手写笔的支持、更加真实的虚拟形象(Personas)、空间小部件、90Hz手势追踪、体积感更强的空间场景(SpatialScenes)、本地共享空间体验等等。🧩全新命名方式:从"版本号"到"年份标记"虽然你可能原本预期下一版VisionPro的系统会命名为visionOS3,但Apple已改为统一的年份命名体系。因此,这一版本被称为visionOS26--表示它将在2025年底正式发布,其生命周期将主要覆盖2026年全年。目前,visionOS26的首个开发者测试版已上线,开发者可立即开始体验与适配。🔥visionOS26主要新功能一览:🎮原生支持PlayStationVR2Sense控制器正如此前传闻已久的消息,visionOS26将原生支持索尼PlayStationVR2的Sense控制器(需单独购买)。Apple表示这将为VisionPro带来"全新类型的游戏体验"。支持的功能包括:6自由度(6DoF)空间定位电容式手指触控检测震动反馈支持目前尚不清楚是否支持PSVR2控制器标志性的高精度触觉反馈和电阻式扳机。👤更加逼真的虚拟形象(PhotorealisticPersonas)visionOS26对平台上的虚拟形象进行了全面升级,通过"行业领先的体积渲染与机器学习技术",让这些虚拟头像变得更加自然、真实。Apple表示新的Personas拥有:惊人的表情表现力与清晰度完整的侧面轮廓高度还原的发丝、睫毛与肤色此外,用户现在可以选择超过1000种眼镜款式来搭配自己的虚拟形象。生成过程依然快速便捷,只需将VisionPro戴上并进行几秒面部扫描即可完成创建。🧩空间小部件与持久化显示(PersistentWidgets)visionOS26引入了全新的"空间小部件"功能,你可以将它们放置在现实空间中,甚至可以贴合物理表面。每次戴上VisionPro时,这些小部件都会自动出现。支持自定义边框宽度、颜色和深度内置小部件包括:时钟、天气、音乐、照片开发者可通过WidgetKit创建自己的空间小部件该功能也可用于其他visionOS26应用中,提升整体交互体验。✋90Hz手势追踪:更灵敏、更流畅VisionPro初代手势追踪仅支持30Hz,我们在评测中曾指出这导致游戏操作响应迟缓。visionOS2提升到了开发者可选择使用的90Hz手势数据流。而在visionOS26中,Apple表示底层算法本身将以90Hz进行采样,极大提升了手势追踪的实时性与精确度。🌐全新"空间场景"(SpatialScenes):让照片"活起来"visionOS26推出了全新的SpatialScenes功能,利用"新一代生成式AI与深度计算技术",能够从任意图像生成多个视角的空间场景,让用户仿佛可以"探身查看"。可在Photos应用中一键转换普通照片为SpatialScene支持在Apple的SpatialGallery展示Safari浏览器中也可嵌入与浏览开发者可通过新增的SpatialSceneAPI集成至visionOS应用🧑🤝🧑本地共享空间体验(LocalSharePlay)此前,在VisionPro上无法实现多台设备在同一空间中看到相同的物体与界面(类似Quest和pico的"共位协同"功能)。visionOS26将通过升级版SharePlay技术与API实现这一功能,支持本地多人共享体验。✍️LogitechMuse空间手写笔支持visionOS26新增对即将发布的LogitechMuse空间手写笔的支持。Apple表示这款配件"提供了精准输入与协作应用(如SpatialAnalogue)的全新交互方式"。外观与功能类似于MetaQuest头显上使用的LogitechMXInk手写笔。🌐Safari空间浏览升级visionOS26对VisionPro上的Safari浏览器进行了重大改进:支持网页中嵌入3D模型用户可直接在页面中"操作"这些模型可动态调整文章布局、隐藏干扰项页面滚动时可激活"活生生"的空间场景🎥原生支持180°与360°视频visionOS26现在原生支持传统的2D180°与360°视频格式(不再仅限于Apple自家的ImmersiveVideo格式)。这意味着你可以轻松观看来自Insta360、GoPro、Canon等品牌设备拍摄的内容。🗂️主屏幕支持文件夹整理visionOS26终于支持主屏幕文件夹管理功能,就像你在iOS或iPadOS上那样组织你的app。目前默认只有一个文件夹,专门存放兼容的iPhone与iPad应用。📞解锁与接听iPhone来电借助visionOS26与iOS26的联动,你现在可以在佩戴VisionPro时解锁iPhone。同时,你也可以通过VisionPro接听iPhone来电,来电将自动重定向至visionOS。👀"眼神滚动"功能(LooktoScroll)visionOS26新增一个名为"LooktoScroll"的功能选项,允许用户"仅凭目光探索应用与网页"。这项功能的具体实现细节尚未公布,我们也很期待看看它是如何工作的!🌍AppleIntelligence多语言扩展visionOS2.4首次引入了AppleIntelligence(AI大模型),但当时仅支持美式英语。visionOS26将其扩展至:英语(澳大利亚、加拿大、印度、新加坡、英国)法语、德语、意大利语、日语、韩语、西班牙语💡开发者新工具:FoundationModelsFrameworkvisionOS26同时面向开发者开放了Apple设备端大语言模型(LLM)接口,可用于构建自己的visionOS应用。支持功能包括:结构化输出的引导式生成模型调用外部工具执行任务🧠总结:visionOS26是AppleVisionPro的一次全方位进化🚀visionOS26不仅大幅提升了VisionPro的交互能力、沉浸体验与多用户协作功能,还进一步强化了跨平台兼容性与开发者友好性。无论是游戏玩家、创意工作者,还是日常使用者,都能在这一体系中找到属于自己的空间体验。随着visionOS26的发布,AppleVisionPro正在逐步成为MR(混合现实)领域的标杆产品之一。
好消息传来:使用Godot引擎开发的游戏现在已经可以在visionOS上以窗口模式运行。而据透露,对苹果VisionPro设备的沉浸式扩展现实(XR)支持也计划在今年晚些时候推出。如果你还不熟悉,Godot是一款免费且开源的游戏引擎,被视为Unity和UnrealEngine的替代方案。它由非营利组织GodotFoundation管理,但所有代码开发都是完全公开进行的,任何人都可以参与贡献。苹果工程师为Godot提交visionOS支持代码上个月,一位来自苹果visionOS工程团队的员工,在Godot的GitHub仓库中提交了一个大型PullRequest(PR)。这项请求包含数千行新增代码,旨在为Godot添加对visionOS的原生支持,并附有一封请求将该功能合并进主分支的说明文档。这一举动引发了Godot社区的热烈讨论,反应不一。有开发者表示:"测试所需的硬件极其昂贵",并质疑核心开发团队是否"有兴趣长期维护visionOS支持"。还有人提出疑问:为什么visionOS应该作为核心功能集成,而不是通过插件或扩展实现?毕竟,每次添加新平台都需要持续维护和测试,这是一项不小的任务。核心开发者力挺visionOS支持:必须整合进引擎核心Godot的XR功能主要开发者之一BastiaanOlij对这些担忧提出了反驳。他在评论中称这个PR是"一个令人惊叹的里程碑",并对苹果的贡献表示感谢。Olij承认审查和测试这些代码将是"一项艰巨的任务",但他从技术角度指出:visionOS的支持只有整合进引擎核心才可行,无法通过插件来实现。最终,他的观点赢得了大多数人的认同。你可以看到,在该PR下,整个Godot社区齐心协力解决了各种问题,最终成功将visionOS的初始支持代码合并进了Godot的主分支。目前,visionOS支持还仅限于窗口模式运行游戏。完整的沉浸式XR支持则计划通过后续的插件形式提供。需要注意的是,尽管visionOS的代码已经合并,但它尚未出现在预编译的Godot发布版本中。不过,任何愿意从源码编译引擎的开发者,现在就可以开始为visionOS构建应用了。Godot已广泛支持主流XR平台得益于其对OpenXR协议的支持,Godot目前已经全面兼容多个XR平台,包括:PC上的SteamVR所有主流Android独立头显设备还实现了Meta特定的OpenXR扩展,支持Quest系列的多种高级功能,如:空间锚点(SpatialAnchors)内向外身体追踪(Inside-outBodyTracking)值得一提的是,BastiaanOlij曾表示,Godot在OpenXR方面的功能质量与广度,"极大地受益于Meta在资金和技术上的支持",这些改进不仅提升了MetaQuest用户的体验,也惠及其他XR平台。甚至在去年,一位来自Meta的工程师还发布了Godot编辑器本身在HorizonOS上的移植版本,这意味着你现在已经可以在Quest3和QuestPro上直接开发完整的VR游戏,无需连接电脑。visionOS不支持OpenXR,带来额外挑战然而,值得注意的是:AppleVisionPro并不支持OpenXR。这让为其添加支持变得比预期更加复杂--如果它支持OpenXR,很多工作本可以更轻松地完成。
提到虚拟现实中的"轻互动",我们不能不提乔恩·费儒(JonFavreau)--这位曾执导《钢铁侠》和《精灵总动员》的好莱坞导演,多年来一直在探索VR和空间计算中如何通过微妙的交互唤起人类最本真的情感。早在2016年,费儒就参与了Oculus的《Gnomes&Goblins》(地精与妖怪)项目的开发。在那场我与他的访谈中,他轻松地说:"什么都不会跳出来吃你。"当我问他该怎样向我的孩子们介绍这个PCVR体验时,他笑着补充道:"别担心,这里没有吓人的东西。"在这个应用中,世界会根据玩家的身高自动调整比例。你可以用手柄捡起一颗坚果,然后扔出去逗弄那些可爱的小生物。这种互动方式简单却充满童趣,让人仿佛置身于一个魔法森林。十年后,"恐龙"来了:从Rift到visionOS将近十年后,费儒再次以类似的方式引导用户进入虚拟世界--这一次,是通过苹果的visionOS平台推出的《EncounterDinosaurs》(邂逅恐龙)。这部作品延续了早期OculusRift上的《Dreamdeck》那种"让大生物走进你的客厅"的设计思路。当你戴上头显,一扇门缓缓打开,一只体型接近迅猛龙的恐龙探出身来,仿佛从史前世界穿越而来。这个体验最初是在AppleVisionPro上进行演示的,并在设备发售之初便已上线。它分为两种恐龙形态:一种体型较小,类似于你在2016年Vive上见到的那种;另一种则更大,足以让你感受到一丝压迫感。在与大型恐龙的互动中,你可以与它对视,也可以试着拍拍它的背,选择更主动的接触方式。尽管这些动作看似自由,但其实整个过程高度脚本化--你会发现它的尾巴扫过你的"私人空间",而你甚至不会意识到这是预设好的情节。轻互动的力量:不是控制,而是共处费儒所传达的故事核心始终如一:"没有什么会跳出来吃你。"即使这次有一只恐龙真的对你龇牙咧嘴了一下。相比之下,一些试图将恐龙变成游戏机制一部分的作品反而显得生硬。比如Quest3上的Dots系列角色虽然动作逼真,但在与物理环境互动时常常显得脱节--它们的脚似乎在地面上滑动几步后就会"卡顿",甚至像是"瞬移"一样穿过墙壁。而《EncounterDinosaurs》巧妙地通过"门户"这一设定规避了这个问题:恐龙只是把头和尾巴探出时空裂缝,却已经足够制造强烈的沉浸感--就像《绿野仙踪》里多萝西不小心放了一只来自奥兹国的生物进屋。重交互vs.轻体验:哪种才是VR的未来?有些VR应用尝试将恐龙变成可操作的角色或任务目标,结果却适得其反。例如,《Stay:ForeverHome》中那种从混合现实切换到全虚拟世界的"门"的机制,在几秒内就会让人感到重复无聊。而在《DinoHab》中,你需要清理虚拟地板上的足迹,这更像是机械化的"刷任务"。相较之下,《EncounterDinosaurs》提供了一种更优雅的解决方案--不需要强迫你进入一个完整的虚拟世界,也不要求你去"驯服"或"控制"恐龙。你只需伸手触碰,就能感受到一种奇妙的联系。这让人想起《Walkabout》系列中的"RaptorCliff",在那里,恐龙被塑造成路边的风景和建筑的一部分。为什么这么做?因为创造真正能互动的角色太难了。即使是DreamscapeImmersive的《AlienZoo》,虽然成功复刻了《侏罗纪公园》那种震撼登场的场面,配上恢弘的配乐,仍然难以避免"游戏化"带来的割裂感。"轻互动"背后的人性光辉《Gnomes&Goblins》和《EncounterDinosaurs》共同揭示了一个深刻的道理:我们在面对陌生世界时的第一反应,往往不是征服,而是好奇与温柔。我们可以像《无人深空》或《我的世界》那样重塑地形,但这不是我们在现实中拥有的能力。真正的力量在于那些微小的互动:投喂食物、伸出手掌迎接一只蝴蝶、或是看着恐龙从你面前走过。这些行为不需要复杂的机制,它们之所以动人,是因为它们唤醒了我们内心深处那份对未知的敬畏与温情。正如费儒所说:"接受那个邀请,伸出你的手,你就开始理解为什么'轻互动'能在VR中成为讲故事的强大路径。"
苹果近日宣布,其visionOS系统将在今年晚些时候获得对脑机接口(BCI)输入设备的支持,首家合作公司为Synchron。苹果表示,这些BCI设备将通过一种全新的BCIHID协议进行支持,并作为iOS、iPadOS和visionOS中SwitchControl(切换控制)功能的一部分进行激活。这一消息发布的同时,苹果还宣布了其他即将登陆VisionPro的新无障碍功能,包括:透视画面放大功能通过本地AI技术对视野中的内容进行描述、识别和阅读的功能(LiveRecognition)SynchronStentrode:首个支持苹果协议的BCI植入设备据BCI公司Synchron透露,其旗下产品Stentrode脑机接口植入体将成为首款支持苹果新协议的设备。Stentrode自2019年起便开始临床试验,是目前全球首个无需开颅手术即可植入的永久性脑机接口设备。它通过颈静脉插入,最终定位在大脑运动皮层附近的血管中,实现对神经信号的读取与解码。实际应用案例:ALS患者用"意念点击"操控VisionPro早在去年8月,Synchron就曾演示过Stentrode如何替代传统的"捏合操作"来控制AppleVisionPro--虽然当时尚未获得官方支持。一位患有肌萎缩侧索硬化症(ALS)的用户通过眼球追踪选择界面元素,并通过"想象点击"的方式完成操作。今年初,Synchron更与NVIDIA合作,展示了另一位ALS患者如何借助AppleVisionPro使用Stentrode控制智能家居设备,如音响、风扇和扫地机器人。那次演示似乎利用了VisionPro的穿透式摄像头访问权限。但目前,苹果仅允许部分非公开的企业级应用使用该功能,并需获得苹果的特殊授权。官方支持来临:BCI成为正式输入方式随着苹果即将推出的BCIHID协议,Synchron的Stentrode将成为visionOS上官方认证的输入设备之一。这意味着拥有该植入设备的用户可以更轻松地在VisionPro上完成点击操作。对于行动受限严重的残障人士而言,这种结合眼动追踪选中+非侵入式BCI点击的交互方式,将成为XR设备上理想的输入系统。未来几年,随着越来越多独立头显内置眼动追踪技术,我们预计这类"眼动+脑控"的组合操作方式将在无障碍领域得到广泛应用。📌结语AppleVisionPro支持脑机接口,标志着消费级空间计算设备迈入了一个全新的交互时代。这不仅是对无障碍设计的重大突破,也为医疗科技与消费电子融合提供了范例。随着更多厂商加入这一生态,脑机接口有望从实验室走向大众市场,真正赋能每一位用户。
苹果近日宣布,旗下首款空间计算设备AppleVisionPro即将获得一系列新的无障碍访问功能(AccessibilityFeatures),包括增强现实透视画面的放大功能,以及通过设备端AI技术对视野中物体进行描述、查找和阅读的功能。苹果表示,这些功能专为视障人士或视力受限用户设计,预计将在今年晚些时候通过一次visionOS系统更新推出。去年,苹果曾在WWDC24发布visionOS2前一个月提前公布相关无障碍功能。因此,业界推测这些新功能或将作为visionOS3的一部分,在下个月的WWDC25上正式亮相。透视画面放大功能升级:PassthroughZoom目前,VisionPro已有的"Zoom"无障碍功能仅能放大虚拟屏幕中的内容。而即将推出的更新将新增对现实世界画面的放大支持,使用户能够更清晰地查看周围环境。这意味着,用户可以通过AppleVisionPro的穿透式摄像头(passthrough),放大真实场景中的细节,例如菜单文字、路标或小号字体的标签等,从而提升日常生活的便利性。实时识别功能上线:LiveRecognition另一项重磅功能名为LiveRecognition(实时识别),它是现有VoiceOver(旁白)功能的延伸。目前VoiceOver主要用于朗读屏幕上显示的内容,而LiveRecognition则将利用VisionPro的设备端机器学习技术,对用户当前看到的真实世界场景进行即时分析和语音反馈。该功能可以实现:描述周围环境定位并识别物体阅读纸质文档或其他可见文本这一切都无需联网处理,所有数据都在本地完成,确保了用户的隐私安全。开放PassthroughAPI给无障碍应用开发者此外,苹果还宣布将向"经认证的无障碍开发者"开放一个新的PassthroughAPI,允许他们在"已批准的应用"中访问VisionPro的穿透式摄像头画面,以提供实时的人工视觉解读帮助。目前,visionOS对passthrough摄像头的访问权限仍较为严格,仅限于非公开的企业级应用,并且需要获得苹果的特殊许可。相比之下,Meta的HorizonOS和即将发布的GoogleAndroidXR允许所有应用在用户授权后访问摄像头。苹果此次公告中提到,未来更广泛的passthrough访问权限仍将仅限于无障碍类应用,并且需经过特定审批流程。尽管如此,考虑到Meta和Google在这方面采取了更为开放的态度,业内也在密切关注苹果是否会进一步放宽限制,尤其是在即将到来的WWDC25上是否会有更多关于passthrough权限的更新消息。📌结语随着visionOS不断进化,AppleVisionPro正在从一款高端消费电子设备,逐步转变为真正具备社会意义的辅助工具。这次公布的无障碍功能不仅提升了用户体验,也展现了苹果在包容性设计方面的持续投入。对于视障用户而言,这些功能将带来前所未有的独立性和生活便利;而对于整个AR/VR行业来说,这也为未来的无障碍交互设计设立了新标杆。