XR数字孪生比传统3D工作流程更适合职场吗?越来越多的证据表明,答案是一个响亮的"是"。多年来,传统仿真和3D软件创建的数字孪生已帮助无数企业优化生产周期、提升流程效率并降低成本。然而,XR技术带来了新的机遇。通过扩展现实(增强现实、虚拟现实和混合现实)设备和数字孪生,团队不仅能查看或旋转屏幕上的3D模型。他们可以步入虚拟环境、实验流程,并利用数据实时做出更明智的决策。那么,数字孪生是否更适合工作场所?当用增强现实、虚拟现实或混合现实技术加持这些数字孪生时,会发生什么?传统3D工作流程的挑战要回答"XR数字孪生是否比传统3D工作场所管理工具更优",我们首先需要明确传统系统的局限性。许多公司仍在使用传统软件创建产品、办公空间和环境的3D可视化,但这些解决方案存在诸多问题:数据滞后:典型场景中,设计阶段的CAD渲染或3D仿真一旦遇到现实变化,模型就会过时。需要人工更新文件,模型往往落后于现实。交互受限:屏幕上静态的3D模型虽然美观,但缺乏沉浸感。设计者和利益相关者无法真正在场景中行走、注入实时传感器数据或进行协同操作。数据孤岛:不同部门使用不同软件,导致信息割裂。如果设施数据与运营数据不同步,如何做出智能决策?被动响应:传统3D工作流通常无法预测设备故障或空间拥挤问题。缺乏实时数据只能在问题发生后被动应对。协作低效:传统工具只能分享静态信息,注释和批注分散。团队无法在共享虚拟环境中集体决策。XR数字孪生的优势与传统3D工作流相比,XR数字孪生的核心优势在于实时数据整合:实时数据集成:实时显示人员流动、设备性能或能源使用情况,减少猜测性工作。分析与预测:AI可预测系统故障或资源利用不足,甚至提供优化建议。闭环升级:数字孪生的洞察可立即指导现实调整,形成反馈循环。XR加持的突破性提升当数字孪生与XR技术结合,工作场所管理能力呈指数级提升:沉浸式协作:全球团队通过头显设备进入共享虚拟环境,实现实时协同。TotalEnergies利用RealWear头显结合MicrosoftTeams,成功开展复杂维护策略协作。革命性培训:Emirates航空通过数字孪生和沉浸学习平台,使员工在虚拟飞机环境中接受培训,减少对实体模拟设备的依赖。实时维护支持:AR叠加的实时数据和远程指导,使预测性维护成为可能,有效预防设备故障。低成本实验:结合AI的XR数字孪生允许团队在虚拟环境中测试各种场景(如高温对设备的影响),利用历史数据预测结果。成本与投资回报尽管需要投入传感器、集成咨询和硬件设备(头显价格虽降仍不菲),但XR数字孪生的投资回报显著:减少停机:预测性维护和远程支持降低紧急维修频率优化不动产:发现低效使用空间,节省数百万租赁成本加速设计周期:虚拟原型和实时反馈缩短生产周期提升协作效率:减少错误、快速决策、降低差旅成本Clorox通过XR数字孪生显著缩短审计时间,实现人均节省949美元。NASA兰利研究中心构建300+建筑的XR数字孪生后,维护成本降低且效率提升;波音公司通过VR协同设计评审,将部件缺陷率降低40%;特斯拉利用车辆实时数据构建数字孪生,工程师可在VR环境中实时讨论自动驾驶功能优化。结论传统CAD或VR仿真虽能展现未来办公室布局或设备运行场景,但无法适应实时变化,也难以实现全球团队的沉浸式协作。若想升级工作场所管理、提高生产力、激发创新并降低成本,XR数字孪生无疑是更优解。这项技术正在重塑企业运营方式,为数字化转型提供强有力支撑。
新视场声学合成(NVAS)正在获得业界的关注,特别是在增强现实和虚拟现实领域的发展中。然而,大多数现有方法存在局限性:它们推断时域的房间脉冲响应(RIR),这增加了优化的难度;专注于简单、单房间场景;仅能推断出单通道、方向无关的声学特性;并且需要输入如具有材质属性的3D几何网格。另一方面,研究表明在AR和VR中的感知合理性并不需要RIR的采样精度。诸如清晰度指数(C50)或混响时间(T60)等标准声学参数已证明能够描述RIR的相关特性,特别是对于后期混响。为了解决这些限制,芬兰阿尔托大学和Meta团队提出了一个新的任务--新视图声学参数估计方法。他们使用单个随机选择的RIR作为校准输入来建立模型对声学环境的理解,并将此任务框架为图像到图像的转换问题。通过这种方式,即使是使用VR眼镜的用户也能体验到更真实的声学效果。研究人员设计了一个模型架构,该架构能够利用简单的二维平面图形式的有限几何信息以及参考RIR作为输入,共同估计多个频带的多个空间分布声学参数。实验表明,所提出的方法显著优于统计基线,尤其适用于方向相关参数预测。此外,该方法可以在非常有限的信息下运行,在推理时只需要场景的大致轮廓和单个RIR。当致力于探索增强现实和虚拟现实技术以实现有效的娱乐、通信和远程呈现时,合理的声音表现是沉浸式体验的关键要求。研究表明,在封闭空间中使用精确的声学模型渲染虚拟声音可以提高可理解性和声音定位准确性,从而提升共存在感和联结感。例如,通过VR眼镜体验复杂多房间环境时,精准的声学模拟能够让用户体验到更加逼真的声音互动。团队基于NVAS先前的研究,介绍并提出了一种新任务--新视图声学参数估计(NVAPE)。这里,他们使用有限的几何信息来预测场景的二维声学参数,而无需精确的材质属性。同样,这种方法也使得佩戴VR眼镜的用户能够在虚拟环境中享受到更为真实的声学体验。总而言之,团队确定了一个新的任务--新视图声学参数估计。它不仅预测未见场景及任意源和发射器位置的声学参数,还用于调节混响器以产生RIR。研究人员提出的模型架构能够利用简单的二维平面图形式的有限几何信息以及参考RIR作为输入,共同估计多个频带的多个空间分布声学参数。这种创新方法不仅推动了NVAS领域的发展,也为VR眼镜提供了更加丰富的沉浸式体验。
PresenZ是一种专业级别的工具,用于将影院级CGI内容转换为支持VR中6DOF观看的格式。随着最近更新的支持PCVR头显的Immersix应用程序,你可以通过一批新发布的最新内容来体验这项技术。专为Quest设计的流媒体版本也正在开发中。我们亲身体验了这两个版本。该技术的创造者希望给像皮克斯和梦工厂这样的世界级CGI工作室提供一种简化的方式,使影院级CGI内容可以轻松地面向VR观众。让我们先从简单的部分说起。Immersix是一个播放使用PresenZ技术转换成体三维视频的CGI内容的平台,这意味着它支持舒适的沉浸式6DOF观看。该应用程序最近进行了更新,新增了两个内容:一个是免费观看、具有宇宙视觉效果的音乐视频'Weightless';另一个是需要4美元内购的"Sharkarma:GuardianoftheOceans(Part1)",这是一部"让你置身于水下生存惊悚片中心"的作品。现在让我们聊聊更复杂的一部分:这项技术背后的原理是什么?为什么它很重要?首先,体三维视频(意味着任何支持6DOF的沉浸式视频内容)本质上比普通的立体180度或360度视频更加舒适和沉浸。这是因为180度和360度视频只响应头部旋转,而不响应平移(即在空间中移动头部)。而另一方面,体三维视频允许在内容中的旋转和平移,这让它感觉上更加沉浸。其次,有些内容由于视觉细节过于丰富,在即使是高端PC上也无法实时渲染。以你最喜欢的皮克斯电影为例,它之所以看起来如此出色是因为每一帧都需要花费很长时间来渲染。因为它不是像电子游戏那样的"实时渲染",通常被称为"预渲染"。预渲染给了计算机时间去做如高度详细的光线追踪、超采样以及许多渲染通道等操作,以增强每帧的画面质量。PresenZ作为一种将CGI内容转换为可以在VR头显上查看的预渲染格式的方法存在,同时保持了体三维视频的舒适性和沉浸感。我体验了这项技术的最新迭代,确实给人留下了深刻印象,它实现了这一承诺。通过Immersix提供的体三维内容确实是真正的6DOF,并且相比同样的180度或360度视频内容,无疑更加舒适和沉浸。然而这里有个注意事项:目前Immersix中可用的内容可以说比在足够高端的PC上实时渲染的内容更好看,但并不明显优于后者。不过,这是当前可用内容的限制,而非技术本身的限制。作为一项技术演示,Immersix令人兴奋,但它真正需要的是顶级的CGI内容--就像你看到的主要工作室发行的大片CGI电影那样。我知道当前的质量水平并不是技术的限制,因为我已经看到了未发布的内容,这些内容使用PresenZ技术转换后,真的让人感觉像是踏入了一部皮克斯或梦工厂的电影。PresenZ的目标是成为一条简化途径,让主要工作室的顶级CGI内容进入VR眼镜。但是这种内容还没有完全到位。深入探讨如果你对PresenZ有印象,那么请认真回顾一下……实际上我们早在2016年就首次报道了这项技术。从那时到现在,它的历程可谓跌宕起伏。最初由一家名为Nozon的公司所有,PresenZ技术在2016年末被开发商和发行商Starbreeze收购。但在Starbreeze于2018年末濒临破产时,PresenZ作为一个独立实体分离出来。之后,PresenZ最终被专注于视频压缩的V-Nova公司接手。据PresenZ的创建者TristanSalomé介绍--他至今仍领导该项目--与V-Nova的合作解决了该技术长期以来面临的一个关键挑战:大文件大小问题。可以想象,影院级CGI会占用大量空间。再加上计算6DOF视图所需的所有额外数据……对于相对简短的内容,你很快就会遇到几十甚至几百GB的数据量。V-Nova表示自从收购PresenZ以来,公司一直在努力改进这项技术,使其对主要工作室和消费者都更加实用。正如他们所说,这项技术已经从一个"技术演示"变成了一个"真正的工具"。在工作室方面,V-Nova表示已为Pixar和DreamWorks等主要CGI工作室使用的渲染工具开发了PresenZ插件,这使得现有的CGI能够流畅地转换为体三维视频。想法是这些工作室已经在制作高质量的CGI资产和内容上投入了大量的时间和资金;如果他们有一种简单的方法将这些内容转换为体三维视频,就可以作为一个新的分发平台吸引数百万VR眼镜用户。在消费者方面,压缩方面的改进促成了Immersix应用程序的创建,使PCVR用户首次有了查看PresenZ内容的方式。但由于即使经过压缩和性能优化,Immersix仍然需要PC的强大功能来进行播放。然而,V-Nova明白在视频分发中可访问性就是一切。为此,该公司还在为Quest等独立头显构建基于云端渲染的Immersix应用版本。这个云端渲染版本已经在开发中,我有幸看到了运行在Quest3上的早期演示。我所见的一切看起来和桌面版一模一样,只不过它是通过云端渲染并通过Wi-Fi传输到我的Quest眼镜上的。当然,这要求良好的带宽和现代、优化良好的Wi-Fi设置。但它为可能数千万的Quest眼镜潜在观众敞开了大门。我们将不得不等待并观察Immersix针对PCVR眼镜(以及最终Quest眼镜)的发布是否会创造出对VR中高质量CGI内容的巨大需求。尽管PresenZ已经有至少十年的历史,但与V-Nova的合作以及对高质量空间视频重新燃起的兴趣(很大程度上受到VisionPro的推动)可能是这项技术一直等待的时刻。
一位富有创意的开发者构建了一款可穿戴的八键控制器,可能解决了虚拟现实领域中最持久的挑战之一:文本输入。对于佩戴VR眼镜的用户来说,这一创新尤其重要。MateuszCzapliński的"Clawtype"附着在用户的手腕上,将八个按键置于手指下方,分为两排,每排四个。由于仅有八个键无法处理完整的字符集,该系统使用组合键来访问额外的字母和符号。不仅仅是按键:增加鼠标控制Clawtype的功能不仅限于文本输入。该设备集成了一个陀螺仪传感器,可以将手部动作转化为光标控制,实际上充当了一个内置鼠标。Czapliński使用3D打印组件(包括键帽、手板和开关座)构建了此设备。在其核心位置,一块SparkFunProMicroRP2040开发板处理所有输入,并以标准USBHID设备的形式呈现给计算机--这意味着它就像其他任何键盘和鼠标一样显示,同时也兼容各种VR眼镜。秉承开源精神,Czapliński已在GitHub上以开源许可证发布了3D设计文件和代码。尽管他的演示视频显示确实存在学习曲线,但该设备相比传统的VR输入方法提供了真正的优势。文本输入仍然是虚拟现实中最大的未解决问题之一。目前,使用VR眼镜的用户通常要么配对一个物理蓝牙键盘,要么与漂浮在空间中的虚拟键盘作斗争。没有触觉反馈的情况下,在VR中打字感觉不自然且效率低下。尽管开发者和公司进行了多次尝试,但至今没有人创建出能够匹配传统键盘速度和准确性的大众市场输入设备。寻求更好解决方案的竞争几位主要参与者正在努力解决这个问题。MetaRealityLabs和ETHZurich为Quest3开发了"TouchInsight",该软件可以将任何表面变成虚拟键盘。在与十二名参与者的测试中,用户达到了每分钟37个单词的速度,错误率为2.9%--明显优于Quest的浮动键盘,后者只能达到大约每分钟20个单词,错误率为8%。TapSystems通过其TapXR腕带提供了另一种方法,该腕带检测手指运动以实现在任何表面上打字。据报道,熟练用户每分钟可达70个单词。该设备适用于多种VR和AR平台,包括MetaQuest、WindowsMixedReality、HoloLens和HTCVive。Meta正在探索另一条途径,利用腕带通过肌电图检测肌肉电信号并将其转换为数字命令。这项技术可能实现只需轻微移动手和手指即可进行输入,极大地提高了使用VR眼镜时的交互体验。
在没有实际键盘的情况下实现高效的文本输入,依然是XR头盔提升生产力应用的关键挑战。研究人员编制了一份详尽的现有文本输入技术目录,以系统化不同方法并分析它们的优缺点。通过免费提供这份目录,他们希望为他人开发新的和改进的文本输入技术提供一个良好的开端。马西米利亚诺·迪卢卡是英国伯明翰大学VR实验室的负责人,在心理学系和计算机科学系担任副教授。他曾在Meta工作,专注于VR中的手部输入与触觉反馈研究。他最近因对AndroidXR交互框架的开创性贡献而获得ACMSIGCHI2025奖项的认可,该成就奠定了XR操作系统基础输入方法和交互指南的基础。随着沉浸式体验变得越来越复杂,高效文本输入的挑战依然是虚拟现实(VR)和增强现实(AR)中无缝互动的重要障碍。无论是虚拟工作空间中的邮件撰写,还是元宇宙中的登录与社交,高效输入文本的能力对于扩展现实(XR)应用的可用性至关重要。为了应对这一挑战,来自伯明翰大学VR实验室的团队及哥本哈根大学、亚利桑那州立大学、马克斯普朗克智能系统研究所、西北大学和谷歌的研究人员共同开发了"XRTEXT宝库"--一个涵盖了170多种专为XR设计的文本输入技术的综合研究项目。TEXT宝库是一个结构化的文本输入技术数据库,并包含一系列筛选工具,用于选择和突出显示由学术界和工业界为XR开发的各种文本输入方法的优缺点。这些技术根据32个编码标准进行分类,包括13种交互属性如输入设备、身体部位(用于输入)、并发性及触觉反馈模式,以及14项性能指标如每分钟字数(WPM)和总错误率(TER)。总体而言,技术和属性的广度提供了对XR文本输入技术现状的全面概览。我们的研究揭示了几项关键发现。首先,文本输入性能本质上受限于输入元素的数量(无论是手指、控制器或其他字符选择器)。只有多指打字才能达到接近普通PC上键盘触摸打字的速度。图表显示,每个额外的输入元素(或手指)大约增加5WPM的速度。此外,研究表明,触觉反馈、外部表面的存在以及仅指尖可视化都是提高打字效率的有效方式。例如,在表面上打字比在空中打字更舒适且可能更高效。外部表面还能减少持续肌肉紧张,使互动更加舒适并降低大猩猩臂综合症的风险。最后,有趣的是,目前还没有任何替代方案能完全取代键盘格式,这可能是因为它仍能提供最高的输入速度,尽管学习曲线较高。我们认为,通过机器学习和AI减少多指键盘上的移动距离可能是实现比PC更快的VR打字的主要途径。XR需要自己的"滑动输入"时刻,就像智能手机上的单指滑动输入极大地提高了效率一样。在这方面,"XRTEXT宝库"的深入探讨代表了对虚拟和增强现实中文本输入理解的重要一步。通过提供一个结构化且可搜索的数据库,我们旨在为研究人员和开发者提供资源,推动更高效和用户友好的文本输入解决方案的发展,为沉浸式的未来铺平道路。正如我们在论文中所解释的那样,这项工作有潜力显著惠及XR社区:"为了支持该领域的XR研究和设计,我们将数据库及相关工具在XRTEXT宝库网站上公开。完整的论文将在下个月在日本横滨举行的著名ACMCHI会议上发表。"团队中的几位成员也是LocomotionVault的共同创建者,该项目类似地编目了VR移动技术,旨在给研究人员和设计师一个识别和改进各种方法的良好开端。
自苹果公司收购以色列科技公司PrimeSense以来,其在手势交互领域的探索从未停止。早在2015年,苹果就获得了一项利用设备投影仪实现手势操作的专利技术。实际上,从2002年至2006年期间,苹果就已经提交了多项与手势交互相关的专利申请,这表明在其visionOS手势控制成为行业标杆之前,苹果对手势交互技术的关注和投入早已开始。近日,美国专利商标局(USPTO)公布了苹果最新的专利申请信息,揭示了其正在开发的一种通过空中手势控制电视、家电等设备的创新技术。根据专利申请内容,该技术旨在为电子设备提供更高效的手势交互界面。用户可以通过简单的空中手势来触发多种操作指令,同时,同一手势在不同的模式下可以实现模式切换或调整内容输出,不同手势轨迹对应着不同的功能。这项技术不仅简化了用户的操作流程,提高了交互效率,还能够有效减少处理器和电池的能量消耗。这种空中手势技术的应用场景非常广泛,涵盖了iPhone、iPad、AppleWatch、Mac以及家用电器等多种设备,并特别针对电视使用场景进行了优化。专利中的附图2A-2E详细展示了手势响应的技术方案,其中计算机系统#200被定义为电视机实例;而图4A-4C则呈现了不同情境下相同手势的不同反应方式,图6A-6D进一步说明了不同手势类型的处理逻辑。此专利支持的手势类型包括轻敲、捏合、握拳/松开、滑动、轻弹等基础手势,同时也涵盖了手指手势和复合手势,极大地丰富了用户体验的可能性。这些进展标志着苹果在提升用户交互体验方面迈出了重要一步,预示着未来人机交互方式的新变革。
莱顿大学的研究揭示了年轻人对虚拟现实副作用的惊人适应力莱顿大学的尼娜·克鲁普利亚宁及其团队的一项新研究发现,儿童和青少年几乎不会经历常常困扰成年人的晕动症。他们的研究包括85名年龄在8至17岁之间的参与者,报告中指出像头晕和头痛这样的常见VR副作用极少出现。这一点特别值得注意,因为成年人在虚拟现实中,尤其是在涉及人工移动时(即眼睛看到的信息与内耳平衡系统提供的信息不一致时),经常遭受这些症状的影响。研究发现,年轻的参与者们完全适应了VR头戴设备,并且轻松掌握了任务要求。虽然具体使用的设备未被披露,研究人员注意到参与者们能够深入沉浸在卡通风格的虚拟环境中,自然地响应方向音频提示和其他刺激。克鲁普利亚宁认为这可能是由于孩子们具有更高的数字素养。"他们倾向于问更少的问题,并更愿意通过试错来探索",她解释说,"成长于数字媒体环境似乎培养了他们的好奇心并减少了对犯错的恐惧。"也许最重要的是,每个孩子都表现出高度的参与动机--这是考虑治疗应用时的一个关键因素。使用VR对抗创伤相关的羞耻感 尽管针对成人的VR疗法研究正在不断扩展,但我们对其对孩子影响的理解仍然有限。"在为年轻用户开发VR干预措施之前,我们首先想要了解他们对这种技术的反应方式",克鲁普利亚宁说。她的当前项目名为SHINE-VR(羞耻干预虚拟现实),旨在帮助年轻人通过自我同情训练应对与创伤相关的羞耻感。该计划提供简短但有力的体验,旨在建立自我同情技能。"在SHINE-VR中,参与者进入一个虚拟世界,在那里学习关于羞耻的知识以及如何应用自我同情",克鲁普利亚宁解释道。"他们与同样经历过人际创伤的虚拟同伴互动,讨论共同的主题和困难的情感。这有助于他们感到被理解并且不再孤单。"研究表明VR具有治疗潜力:使用者可以在佩戴头盔的情况下安全地练习具有挑战性的现实生活场景。"我们发现这些环境可以引发真实的情感反应--包括心跳加速--即使使用者理性上知道他们并没有处于真正的危险之中",克鲁普利亚宁指出。"这让人们有机会逐渐面对困难的情绪,帮助他们更容易地在现实生活中迎接这些挑战。"关于开始使用VR的适宜年龄问题 儿童开始使用VR的合适年龄仍存在争议,目前没有长期研究为我们提供明确指导。制造商指南差异很大--Meta最近将其Quest最低年龄从13岁降至10岁,而其他公司则保持较高的年龄限制。Facebook公司还为青少年(13-17岁)和"少儿"(10-12岁)提供了带有家长控制功能的专门账户。然而,我们建议家长应更多关注自己孩子的个体生理和心理成熟度,而不是制造商的指南。这些年龄推荐可能受到公司扩大用户基础的愿望影响,而非基于安全性与发展方面的扎实研究。
一位软件工程师成功让PlayStationVR2的眼动追踪功能在PC上运行,不过他们提醒目前该项目仍处于"非常初步"的阶段,并且缺少校准功能。该开发者现用的网名是whatdahopper,他通过BnuuySolutions将自己开发的软件开源发布。三年前,他首次公开发布了名为OculusKiller的VR工具,这款工具能够让QuestLink直接加载到SteamVR中,跳过OculusDash。最近,他又专注于ReLinkedVR和OculusWRP这两个项目,旨在帮助用户完全摆脱对MetaQuestLinkPC软件的依赖。现在,他的最新项目致力于将PlayStationVR2的眼动追踪功能移植到PC平台。需要注意的是,尽管PSVR2可以通过索尼官方的SteamVR驱动支持PC上的VR应用,但在PC平台上,该头显目前还缺乏一些亮点功能,比如眼动追踪、HDR、头显震动以及自适应扳机键等功能,虽然CactusCowboy的开发者早在九月就解决了扳机键的问题。正如上面所提到的,whatdahopper今天分享了首个已知视频,展示了PlayStationVR2眼动追踪在PC上的实际效果,证明了他的逆向工程工作。他还提到正在测试是否存在斜视问题。他计划将这个解决方案作为索尼官方PSVR2SteamVR驱动的一个免费开源mod发布,命名为DriverEx,并称整个PSVR2逆向工程项目为PSVR2Toolbox。然而,他也指出这项工作仍然处于非常初级的阶段,而且目前还没有校准功能,这会影响准确性。即便如此,他还是希望能够实现校准功能,而能够开始运作已经是一个不错的开端了。目前,除非能找到价格合理的二手QuestPro、PimaxCrystal或VarjoAero,否则带有眼动追踪功能的PCVR头显的价格通常超过2000美元。即便是即将于六月推出的BigscreenBeyond2e,如果配有基站的话,也会花费超过1200美元,甚至高达1500美元以上;而PimaxCrystalSuper的价格大约在1800美元左右。如果whatdahopper能够使PSVR2的眼动追踪功能以良好的准确性和可靠性运行,那么这款头显将成为低于500美元(400美元加上适配器和电缆)的PC眼动追踪VR选项,比以往任何时候都更加经济实惠。除了能够在VRChat中增强虚拟形象的眼神交流来提升社交体验外,眼动追踪还可以用于支持的游戏中的焦点渲染技术,从而提高性能表现。这种额外的性能可以用来更流畅地运行高要求的游戏体验,或者在已经达到帧率标准的情况下以更高的分辨率进行渲染。战斗飞行模拟游戏DCS已经支持基于眼动追踪的焦点渲染技术,微软飞行模拟2024也正在当前的测试版本中加入这一功能。尽管whatdahopper表示会免费并开源发布此解决方案,但他也为希望提供财务支持的人提供了Patreon订阅选项。我们将继续关注whatdahopper在PSVR2眼动追踪方面的进展,并在解决方案可公开下载使用时第一时间为您带来消息。
亚利桑那大学的研究人员开发了一种突破性的眼动追踪技术,能够捕捉超过40,000个眼睛表面点位,极大地提升了虚拟现实(VR)的精度。传统的红外发射器方法仅能捕捉到大约12个眼表点,而这项基于折反射测量的新技术,只需单次拍摄即可收集超过40,000个眼表数据点。折反射测量是一种用于高精度测量反射表面的3D成像技术。研究人员使用带有特殊光图案的屏幕来照亮眼睛,并通过相机捕捉和分析这些图案如何从眼表面反射。每个屏幕像素都可以作为独立的光源。系统通过分析反射图案的变形情况,创建了包含角膜及瞳孔周围白色区域的详细三维眼模型。在人体试验中,该系统的跟踪准确度达到了0.46至0.97度,在人工眼球模型测试中的误差甚至低至0.1度。目前,大学已为该技术申请专利,并计划进行商业化应用。团队正努力将额外的3D重建方法和人工智能融入其中,以进一步提升技术性能。首席研究员弗洛里安·维洛米泽指出:"我们的折反射测量法可以从单一瞬间相机图像中提取超过40,000个表面点的信息,理论上甚至可达数百万。"博士后研究员王嘉章补充说:"更多的数据点意味着更多的信息,这可以显著提高注视方向估计的准确性,对下一代VR应用至关重要。"眼动追踪对于XR(扩展现实)的重要性 眼动追踪是推进VR和AR头盔发展的关键因素。它不仅实现了具有真实眼神交流的虚拟形象,还支持如苹果VisionPro中的直观控制方式。特别地,动态视网膜凹凸渲染依赖于眼动追踪技术,通过检测视野中眼睛聚焦的部分并相应调整计算资源分配,从而大幅提升图形质量。然而,将眼动追踪集成到如MetaQuest这样的独立VR设备中仍然面临挑战。Meta的CTO安德鲁·博斯沃思提到:"要有效利用动态视网膜凹凸渲染,需要极高精度的眼动追踪,而这当前所需的计算能力比节省下来的还要多。"新的折反射测量方法可能成为解决这一问题的关键。研究表明,随着采集数据点数量的增加,眼动追踪的准确性和精确度也会提高。如果该方法能够高效实施,它将有望推动眼动追踪技术的发展,使其在移动VR设备中也变得经济可行。
突破虚实界限:数字人走进现实空间TaoAvatar通过创新3D高斯点绘技术与动态音频驱动模型,打造出可听、会说、能感知的智能虚拟人。这些数字形象不仅拥有媲美真人的微表情与肢体语言,更能以90帧/秒的超流畅画面在苹果VisionPro等设备上实现真人大小的AR投影。在远程会议场景中,同事的虚拟化身可自然融入用户物理空间,通过眼神交流与手势协同完成方案讨论;客户服务领域,虚拟代表能以"手把手"形式引导用户操作复杂设备。企业级部署的"黄金三角":高质、高效、轻量化阿里巴巴技术团队负责人表示:"TaoAvatar的突破在于同时满足商业场景的三大刚需--影视级画质、低资源消耗与全平台适配。"该技术采用个性化服装扩展系统与可学习高斯混合形状算法,在保持1GB以下轻量存储的同时,实现发丝级细节渲染。其跨平台兼容性支持从智能手机到专业AR眼镜的多设备部署,且运行时CPU占用率较同类产品降低40%,为规模化企业应用扫清技术障碍。四大商业场景重构用户体验沉浸式产品演示:虚拟主持人可在用户真实环境中3D拆解产品结构,电商转化率预计提升300%智能客户服务:保险顾问可"走入"客户家中,用手势模拟理赔场景工业数字孪生:工程师化身直接出现在设备旁指导故障排查情感化培训系统:AI讲师通过微表情传递教学重点,学习效率提升65%技术内核:让数字人"活"过来区别于传统虚拟人,TaoAvatar集成了三项独家技术:Audio2BS动态建模:将语音内容实时转化为52种面部肌肉运动与肢体动作多模态同步引擎:确保唇形、表情与手势误差低于0.3秒智能环境感知:虚拟人可自动识别用户空间布局调整交互距离目前,该技术已与多家世界500强企业展开试点。零售业客户反馈,使用TaoAvatar的AR导购使客单价提升220%,而制造企业通过虚拟专家指导将设备维修时间缩短58%。阿里巴巴透露,开发者套件将于本季度开放,未来或将拓展至元宇宙社交与数字人直播领域。"当数字化身能像真人一样与你共处一室时,商业沟通的本质将被重新定义。"行业分析师评价道。随着TaoAvatar的落地,阿里巴巴正推动AR技术从视觉奇观向生产力工具的质变,开启空间计算时代的商业新范式。AR互动的新风口?TaoAvatar的亮相,不只是技术秀,更可能是AR应用的新起点。从游戏到教育,再到社交和电商,照片级虚拟人能解锁的场景多到数不过来。比如线上课堂里,老师的分身可以"走进"学生房间讲解;再比如虚拟偶像演唱会,直接在你家客厅开唱。这种技术一旦普及,可能会重新定义我们跟数字世界的互动方式。不过,挑战也不少。高保真渲染对硬件要求高,普通用户啥时候能玩上?实时对话的AI智能能不能跟上人类脑洞?这些问题都得等后续落地验证。阿里TaoAvatar用照片级3D虚拟人和实时AR对话,狠狠秀了一把技术肌肉。从Audio2BS的情感同步到高斯溅射的流畅渲染,这项技术让虚拟人离"活过来"又近了一步。你期待用它做什么?是打造个数字分身陪聊,还是干脆开一场虚拟party?
近日,Changefied在其MetaQuest产品组合中推出了一款新的定向沉浸式学习平台--荷兰虚拟公共交通(DutchVirtualPublicTransport)。这款培训应用程序由Changefied与荷兰交通组织合作开发,提供了一个虚拟现实模拟的地区公共交通系统,帮助国际游客和有特殊需求的旅客了解路线。Changefied首席执行官TimvanDam指出,荷兰虚拟公共交通VR体验让用户"在抵达荷兰之前做好准备,以便他们能够自信地使用当地公共交通"。该解决方案是其VirtualOV学习平台的一个分支,允许用户在一个安全的虚拟环境中练习,模拟行程规划、签到、导航车站以及换乘线路等功能。该培训解决方案现已为MetaQuest3和3S头显准备好,并可在MetaQuest商店免费下载。针对游客需求VanDam表示:"我们预计这将对荷兰的旅游业和整体旅行体验产生积极影响。"公司解释说,沉浸式培训平台可以结合教育和虚拟旅游,吸引更多游客前来该地区。此外,母平台VirtualOV学习平台旨在支持有特殊需求的学习者,Changefied与荷兰医疗机构合作,开发了有针对性的逐步培训解决方案。关于Changefied更多介绍这不是Changefied的第一个培训解决方案。根据Meta商店描述,该公司推出的VirtualTechLab让用户能够在不受硬件、时间和金钱限制的情况下,在虚拟环境中练习组装IT组件。Changefied在其网站上称VirtualTechLab为领先的虚拟学习环境,正在革新IT硬件教育。该应用专为教育机构设计,特别是那些专注于技术教育和IT相关科目的机构。VirtualTechLab的优势包括适用于所有技能水平的用户,从初学者到高级用户。它营造了一个协作空间,学生可以互相学习。Changefied成立于2023年6月,是一家位于北荷兰的公司,致力于通过集成、可重复且引人入胜的学习程序探索沉浸式教育的未来。
随着扩展现实(XR)市场竞争的加剧,新供应商和解决方案提供商带着新的视角和技术进入这一领域。然而,在这个日益复杂的网络中,关注那些在XR创新与实施方面拥有深厚经验的老牌公司变得尤为重要。Varjo正在巩固其在快速增长的XR市场中的地位,并最近宣布了对XR耳机及企业部署的长期承诺。在其最新公布的路线图中,Varjo计划到2030年支持其XR-4系列耳机用于训练和模拟场景,确保为客户提供一个不会因设备迭代而过时的硬件承诺。目标市场与战略焦点Varjo的目标市场包括长期国防项目等需要稳定硬件支持的客户群。值得注意的是,微软退出HoloLens2IVAS合同后,Varjo虽然没有直接参与IVAS项目,但凭借其在飞行员训练耳机部署方面的丰富经验,成为了该领域的有力竞争者。国防项目的存在及其对XR设备市场的影响是整个行业的重要支撑点。支持XR-4至2030年的策略Varjo专注于满足那些需要长期硬件可靠性的应用场景。通过承诺在较长时间内支持XR-4系列设备,Varjo旨在提供一种长期可靠的XR硬件选择,避免由于频繁的硬件更新而导致的企业集成问题。尽管有人担心如果市场需求快速变化,XR-4可能在2020年代末期显得过时,但这些担忧大多是推测性的。Varjo的长期愿景表明,它正努力预见未来的硬件需求并据此调整其发展路线图。此外,VarjoBasePro(每年订阅费用为2,500美元)为企业XR-4用户提供了一个新的软件许可层级,增强了设备的功能以满足不断增长的需求。此版本包含了如人工智能增强集成、动态物体分割、增强直通分辨率等多项高级功能,以及专业环境模拟和大规模多设备部署工具等。专业服务与市场响应为了进一步支持其2030路线图,Varjo还推出了专业服务,帮助客户顺利部署专业耳机。作为市场上经验丰富且值得信赖的耳机供应商,Varjo不仅展示了其对市场的深刻理解,也反映了供应商正在积极响应企业对于稳定可靠XR设备的需求。随着HoloLens的退出,市场迎来了新的信心--企业客户可以更加安全地投资于XR技术而不必担心陷入技术死胡同。对于一个每年都在经历重大变革的行业而言,Varjo的2030年路线图标志着向正确方向迈出的重要一步,预示着XR技术在企业级应用中的成熟与发展。
扩展现实(XR)技术的应用范围正在不断扩大,从消费娱乐领域延伸至多个行业,展现出其在实际应用中的巨大潜力。三星开发的ProjectHaean智能眼镜,在GalaxyUnpacked2025上进行了预览,并计划于今年发布,标志着这一趋势的重要进展,展示了XR工具如何逐步融入制造业、医疗保健及其他领域。三星同时推进坚固耐用的ProjectMoohan耳机和更便携的ProjectHaean智能眼镜的研发,体现了公司对满足不同用户需求的理解。Moohan的设计更适合MWC2025上展示的密集室内应用,而Haean眼镜则因其纤薄设计,可能更适合移动使用场景,包括专业环境中的应用。根据韩国媒体ETNews的报道,三星正致力于为ProjectHaean创建基于手势识别摄像头的控制界面,这表明公司在探索那些在工作场所中极具价值的直观控制方式。三星在工业领域的角色轻量级XR设备如ProjectHaean有望在多个行业中发挥重要作用:制造业:AR眼镜可用于复杂装配过程中的视觉指导,维护技术人员能够访问维修手册并获得远程协助,同时保持双手自由。医疗保健:XR技术可应用于手术规划到患者教育等各个方面,使医护人员无需离开无菌环境即可获取所需信息。物流运营:仓库中的AR引导系统可以帮助工人通过智能眼镜看到突出显示的路线和物品位置。不断发展的XR生态系统三星不仅限于设备开发,还在XR领域拥有超过10,400项专利,显示出其在创新领域的领导地位。Anaqua分析解决方案总监ShaynePhillips指出,半导体和AI专利数量的增长尤其反映了跨行业的健康发明生态系统,支持了更为复杂的XR设备的发展。三星执行副总裁KimKi-hwan强调了XR与日常生活中的AI集成的重要性,并希望通过将XR与智能手机及家用电器连接起来,实现更高效的AI助手通信。商业潜力三星正在扩大其开发者生态系统,提供SDK访问权限和学习课程,以缩小消费者技术和专业实施之间的差距。据报道,Moohan售价约为999美元,定位介于Meta的Quest3和苹果VisionPro之间,而ProjectHaean预计将以更具吸引力的价格推出,旨在为各种规模的企业提供采用XR技术的入口点。随着三星继续开发Moohan和Haean,并计划于2025年发布,XR技术在行业中的采用率可能会稳步上升。专注于手势控制等直观界面的开发,暗示着该公司越来越重视创造更加自然的交互方式,这对专业环境尤为关键。Anaqua首席执行官BobRomeo表示,全球专利活动的增长是企业对新兴技术持续投资的一个令人鼓舞的迹象,预示着XR与商业操作的融合将继续深化,带来更多实用且易于使用的XR工具供专业人士使用。
TouchDIVERPro触觉手套在触觉技术领域实现了重大突破,其通过将精密触觉反馈技术融入紧凑型设计,为工人提供了更逼真的培训模拟体验。WEART依托其庞大的专家合作伙伴网络,确保TouchDIVERPro经过精心设计与优化,可无缝融入专业工作流程。基于用户对"全手指追踪与触觉驱动"的明确需求,WEART设计了这款最新设备,通过触觉反馈将工人真正带入其职业虚拟空间,让触觉感受成为连接现实与虚拟的关键。连接工人与扩展现实(XR)模拟环境TouchDIVERPro通过独特的技术特性,增强了工人与虚拟世界的连接感。与传统VR手套仅关注基础震动或动作追踪不同,TouchDIVERPro通过六个驱动点整合力反馈、纹理渲染和温感提示,覆盖全部五指及手掌,模拟阻力或压力的触感,从而在用户与数字对象互动时,通过真实的触觉反馈将他们"传送"至虚拟环境中,创造出沉浸式且极具说服力的触觉体验。该设备的另一大核心功能是其先进的手部追踪技术,精度高达小于1度,支持用户完成复杂手势操作。通过整合所有这些元素,TouchDIVERPro为虚拟体验注入高度真实感,精准还原物体及材质的独特属性。连接现实与虚拟世界的无缝过渡可穿戴触觉解决方案的核心目标是连接工人与虚拟世界,但笨重的外形设计会破坏这种体验,因此WEART设计了轻量化产品以保持沉浸感。TouchDIVERPro的外形尺寸远小于同类产品,可实现向虚拟空间的无缝切换。相比之下,其他触觉设备可能因体积过大(如大型手套或需佩戴于身体的装置)而显得笨拙。尽管TouchDIVERPro的紧凑设计常被忽视,但一旦实际应用,其将成为成功打造沉浸式外设的关键设计考量。投资回报与实际成果虽然实现虚拟世界的无缝过渡是一项创新,但其对投资回报率的实际影响如何?通过在虚拟空间中重现触感体验,企业可节省成本。触觉技术使虚拟环境更加可靠,企业可将其用作高价值培训场所。TouchDIVERPro的ROI还体现在:避免因将人员投入真实环境进行培训而浪费资源或时间,同时不影响繁忙或危险工作环境的正常运行。WEART的技术与职场应用能力获得了业界广泛认可,例如其近期斩获2024年AWE艾戈奖"最佳社会影响奖"。企业触觉解决方案的实际成效仍在逐步显现,如同技术本身的发展轨迹。不过,随着更多应用场景的涌现,触觉市场将随行业领军者如WEART的推动而不断扩展与成熟。
在2025年3月举行的GDC(游戏开发者大会)上,题为"融合现实,倍增奇迹:混合现实开发专家指导"的会议吸引了广泛关注。来自Meta、ResolutionGames、Niantic等公司的专家分享了最新的MR(混合现实)开发见解和技术进展。以下是会议的精华内容。MR的基本要素与吸引力Meta产品经理KirkBarker首先介绍了混合现实的基本概念和关键组件。他以《GuardianofRealms》这款混合现实游戏为例,描述了虚拟入侵者如何进入用户的客厅,并展示了如何在现实环境中进行互动战斗。主要技术要点:透视与深度感应:头戴式设备上的摄像头捕捉现实世界的图像,并使用深度API检测物体的距离,实现虚拟和物理物体之间的自然遮挡。锚点:在3D坐标空间中设定参考点,确保虚拟物体固定在同一位置。例如,将海报贴在墙上后,它会始终保持在该位置。场景理解:识别房间结构和家具的技术,为开发者提供语义信息(如墙壁、天花板、沙发、床),从而创建与现实世界空间相对应的游戏体验。Barker强调,通过结合这些元素,可以创造出引人入胜、具有沉浸感和互动性的混合现实体验。设计更具沉浸感的MR体验Creature工作室创意总监DougNorthCook分享了开发MetaQuest混合现实游戏《StarshipHome》的经验:关键设计原则:表面感知:设计能够适应任何表面的虚拟物体。例如,花盆可以根据环境变化调整其外观和行为。产品设计思维:虚拟物体需要像真实物体一样细致且具有交互性。目标是让用户愿意移动真实的家具来容纳虚拟物体。让不可能成为可能:创造看似不存在但感觉存在的元素。例如,储物格延伸到地板以下15英尺,给用户带来逼真的体验。直观的操作:确保用户能通过观察了解物体的功能,并在必要时使用标签或其他标志。互动深度:每个操作都融入声音和动作反馈,增强物理力学的感觉。团队称之为"Goopy"元素,这是取悦和惊喜用户的关键。Cook强调,"混合现实的神奇之处在于它可以在任何空间创造新的记忆"。他鼓励开发者将房间本身视为一个角色,并在任何环境中提供有意义的体验。透视摄像头API及其应用案例KirkBarker接着介绍了3月份发布的全新透视摄像头API。该API允许开发者访问耳机的前置摄像头,捕获现实世界的图像并在应用程序中使用它们。主要用例:对象检测:结合机器学习框架(如YOLO算法),识别现实世界的物体并显示边界框和概率。纹理映射:将现实世界的纹理应用到虚拟物体上,使虚拟物体更好地融入环境。滤镜应用:调整现实世界的亮度和颜色,增强视觉效果。Barker展示了一个使用YOLO算法的示例,该算法从HuggingFace下载,编译到Unity中,并与透传API结合,展示了如何识别现实世界的物体并显示相关信息。游戏案例研究ResolutionGames首席执行官TommyPalm分享了三个利用透视摄像头API的游戏案例:SpatialOps:一种新型射击游戏,玩家可以利用家里的空间与远方的玩家进行多人游戏。虚拟障碍物逐渐与房间融为一体,增加了沉浸感。实验室老鼠:异步多人游戏体验,其中一个玩家的房间通过透视摄像头进行3D扫描,另一个玩家以鼠标形式进入该空间解决谜题。TwentyGuys:玩家通过混合现实头戴设备观看2D图像创建玩偶纹理,生成角色并进行独特游戏体验。Palm强调,这些游戏不仅展示了技术的强大功能,还突显了混合现实在减少晕动症方面的优势。Niantic的HelloDotNiantic执行制片人AliciaBerry讲解了将手机AR游戏Peridot移植到Quest3的过程,即《HelloDot》。她介绍了几个关键技术应用:Dot摄像头:跟踪Dot的摄像机模式,使用Niantic的3D扫描应用Scaniverse对房间进行扫描,然后将其渲染为高斯图。物体检测:使用Niantic专有的ARDK(增强现实开发套件)检测现实世界中的物体。例如,Dot发现一棵树并感到兴奋。Berry还展示了"路线指引"的使用案例,通过高斯斑进行空间导航,引导用户在现实世界中移动。通过这次会议,开发者们深入了解了MR技术的进步和应用场景。Meta的新透视摄像头API为开发者提供了更多工具,使得混合现实体验更加丰富和沉浸。无论是通过表面感知、产品设计思维还是直观操作,开发者都能创造出令人惊叹的混合现实体验。未来,随着技术的不断进步,混合现实将在更多的领域中发挥重要作用。
Meta宣布在其最新的开发工具包(SDK)中推荐使用包含OpenXR的路径,特别是在使用Unity和UnrealEngine等主流游戏引擎进行开发时。这一举措旨在简化跨平台开发,并更好地整合HorizonOS和Meta操作系统的特有功能。据海外媒体指出,此举是为了回应开发者长期以来的不满。OpenXR:XR行业的通用标准OpenXR是由非营利组织KhronosGroup于2017年发布的XR硬件和软件通用标准。该标准允许开发者无需进行重大修改即可创建与不同XR设备兼容的应用程序。目前,已有超过150家主要公司和组织参与其中,成为XR行业的重要基础技术。尽管谷歌的新XR设备操作系统"AndroidXR"和字节跳动的"Pico4Ultra"也符合OpenXR标准,但苹果仍坚持使用自己的VisionPro标准。解决开发者痛点此前,Meta的Unity和Unreal引擎的OpenXR支持仅限于PC上的MetaQuestLink和Rift头戴式设备,而不适用于其他PCVR设备。这意味着开发者需要为不同的PCVR耳机实现不同的子系统,这与OpenXR的初衷背道而驰。独立开发者MatthieuBucchianeri(曾参与Xbox项目)在一份声明中提到,KhronosGroup在2024年初向Meta报告了这一问题,当时Meta承认其故意限制OpenXR内容在其他平台上的运行。Bucchianeri对此表示失望,并要求从OpenXR规范和官方文档中删除他的名字。对此,KhronosGroup发表声明称,"我们认识到由于遗留API和平台特定行为限制了XR应用程序的可移植性,开发人员面临的挑战。"Meta的最新举措为了回应这些批评,Meta在其博客上发布了关于最近推出的OpenXRPath推荐政策的评论。Meta强调了其对采用OpenXR的积极立场,并指出自2019年以来,Meta一直在推动OpenXR作为跨设备解决方案。Meta贡献了33个Khronos和跨供应商扩展以及61个供应商特定扩展。许多特定于供应商的扩展(如SpaceWarp、foveation、passthrough)已被其他OpenXR供应商采纳,以提高与最初为Meta设备开发的应用程序的互操作性。对于Unity,Meta表示:"UnityOpenXRPlugin1.14已实现了与OculusXR插件相当的功能和性能。"HorizonOS特定功能可通过扩展和MetaXRCoreSDK获得。在UnrealEngine方面,情况稍微复杂一些。UnrealEngine5内置了OpenXR,但Meta目前正在集成其自己的功能,重点关注Quest系列。Meta鼓励开发者使用其GitHubfork,并将源代码提供给开发者。Meta还承诺将在不久的将来提供更多有关虚幻引擎的建议信息,包括详细的权衡表。通过推荐使用OpenXR,Meta希望简化跨平台开发流程,增强与其他XR设备的兼容性,并解决开发者长期以来的困扰。这一举措不仅提升了开发者的体验,也为XR行业的标准化进程做出了贡献。
VR52网成立于2015年,平台提供VR头显、AR眼镜、配件外设、厂商、测评、行业资讯、游戏与应用、展会活动等。