在2025年,零售媒体网络(RetailMediaNetworks,RMNs)已成为数字广告的重要组成部分。它不仅让零售商能够通过自有渠道--包括网站、App、甚至实体店进行变现,还推动了一场深刻的变革:从"投放广告"转向"创造沉浸式体验"。🔄转型趋势:从静态广告到交互式叙事随着增强现实(AR)、虚拟现实(VR)和空间计算技术的普及,零售商正逐步告别传统的横幅广告和赞助列表,转而采用更具互动性和故事性的营销方式。这不是概念炒作,而是当下正在发生的现实。问题是:品牌与零售商,是否已准备好从"媒体销售者"转型为"沉浸式内容创作者"?🎯XR零售生态的三大关键词:定位、空间商业、虚拟品牌叙事在XR零售环境中,三个核心要素正在重塑消费者的注意力与偏好形成机制:空间定位(LayAnnexPositioning):产品如何在虚拟空间中被感知。空间商业(SpatialCommerce):消费者如何在三维场景中完成购买决策。虚拟品牌叙事(Avatar-BrandStorytelling):品牌如何通过虚拟形象与用户建立情感连接。🏪零售商变身沉浸式媒体公司其实,零售商早已具备"媒体属性"--他们掌握客户数据、运行程序化广告、提供品牌赞助位。但到了2025年,这种能力正进一步升级:如今,越来越多零售商开始在其门店与App中测试XR沉浸式互动区:沃尔玛正在试点智能展示屏,顾客扫描商品即可查看3D预览、品牌视频或参与小游戏,提升购物趣味性。家乐福推出AR展示货架,将普通货架变为融合菜谱推荐、品牌小贴士和限时促销的沉浸式广告空间。这些零售商正以XR作为"媒体逻辑",围绕停留时间、情绪记忆、认知留存设计内容,逐渐成长为强大的沉浸式媒体出版商。🧠为什么RMNs成效显著?第一方数据+沉浸式洞察力传统RMN的优势在于拥有丰富的第一方数据,如会员卡信息、购买历史和点击路径。而当加入XR技术后,系统还能捕捉消费者的行为细节,比如他们在虚拟空间中的互动方式。这为品牌带来了更深层次的洞察,也使消费者获得更精准、更有趣的沉浸式内容,从而实时推动线上或线下的购买行为。🚀沉浸式技术重构RMN技术栈RMN的技术架构正在经历一场范式转变--从传统的广告服务器向空间计算引擎演进。XR技术为此提供了以下关键功能:3D产品探索:以真实比例查看并操作产品模型虚拟试穿:通过移动AR实现服装、化妆品和配饰的穿戴模拟数字孪生:构建店铺布局的虚拟副本,用于沉浸式广告投放与消费者测试WebAR集成:无需下载App,直接通过浏览器实现XR功能这一系列工具将广告从"干扰项"转变为"情境助手",标志着品牌体验进入了一个"实用嵌入"的新时代。🌐线下门店的"数实融合":Phygital体验崛起实体门店正成为一块"数字画布",零售商们也在积极投入:Tesco(乐购)使用AR货架标签,动态显示价格、营养信息及促销数据Boots(博姿)引入智能镜面,提供实时化妆试妆、皮肤检测与美容教程混合现实展示区:过道中的全息演示与手势控制产品介绍,将营销触点延伸至购买瞬间这些部署反映出一个全新的消费期待:在购物过程中遇到的品牌内容不是推销,而是帮助决策的工具。这让每一次体验都变得可衡量、也更难忘。🎮最有效的沉浸式广告形式有哪些?2025年最成功的广告形式通常具备以下三大特征:用户摩擦最小叙事沉浸感强内嵌实用价值目前最受欢迎的形式包括:品牌XR小游戏:通过互动获取折扣券或积分奖励虚拟导购员:AI驱动的品牌代表,在虚拟货架或AR场景中引导用户虚拟快闪店:临时上线的3D展厅或虚拟商店,营造紧迫感与稀缺性与此同时,新的衡量标准正在取代传统的点击率(CTR)和曝光量,例如:场景停留时间(Time-in-scene)互动密度(InteractionDensity)每次沉浸体验的转化率(ConversionperSession)⚖️挑战与权衡:沉浸式RMN的结构性难题尽管前景广阔,沉浸式RMN仍面临多重挑战:设备碎片化:内容需适配移动端、AR头显、智能终端和网页环境,开发复杂度高延迟vs真实感:高质量XR需要强大带宽与算力,可能超出部分零售基础设施承载范围用户疲劳:过度沉浸反而会削弱新鲜感,甚至造成认知负担隐私争议:将空间行为数据与购买记录结合,引发伦理与合规问题规模化落地的关键不在于技术野心,而在于整合能力。只有真正打通"媒体+零售"的企业,才能实现真正的投资回报率(ROI)突破。🧭结语:XR是数字广告的第四波浪潮吗?如果说:搜索引擎索引了网页社交媒体连接了人RMN变现了货架注意力那么,XR就是赋予交互"人性化"的下一阶段。广告的未来不再是让消费者"看到",而是让他们"置身其中"。对品牌和零售商而言,未来的成功取决于:广告运营团队与空间UX团队深度协同在多设备创意生产管道上的战略性投入对沉浸式数据使用的治理框架建设归根结底,真正的目标不是技术采纳,而是体验编排。那些理解这一点的品牌,不仅会赢得广告预算,还将掌控影响消费者的每一个关键时刻。
据最新消息,Meta即将在其HorizonWorlds桌面编辑器中推出一项激动人心的新功能:AI环境生成(AIEnvironmentGeneration)。这项功能将允许创作者通过简单的文字提示(textprompt)生成完整的虚拟世界,并预计"很快就会发布"。📦HorizonWorlds桌面编辑器现已独立上线早在今年2月,Meta就推出了适用于Windows平台的HorizonWorlds桌面编辑器(WorldsDesktopEditor),并进入早期试用阶段。与此同时,该公司也逐步停止了在VR内部的创作工具。这款桌面编辑器支持用户导入3D模型、图像和音效文件,并将其放置在一个三维场景中。同时,开发者还可以使用TypeScript(一种流行的JavaScript衍生语言)来实现游戏逻辑和其他交互功能。自该编辑器开放早期试用以来,美国地区的创作者已经可以利用AI功能生成环境音效与背景音乐,甚至还能生成TypeScript脚本以增强功能。到了今年4月,Meta进一步扩展了Horizon的AI创作能力,面向美国、英国和加拿大的用户开放了AI生成3D模型、纹理贴图和天空盒(skybox)的功能。🚀编辑器现已独立运行,无需连接Quest设备如今,Meta宣布WorldsDesktopEditor正式作为独立软件提供下载,不再依赖MetaQuestLink(即PC串流模式)。此外,AI生成功能也得到了多项升级:AI生成功能现已扩展至澳大利亚和新西兰地区欧洲联盟地区也将"很快"获得支持TypeScript代码生成已升级为基于Meta最新Llama4模型音效与环境音频生成模型也进行了优化,可实现更快输出与更高音质🗣️AI驱动的NPC功能已宣布但尚未上线在今年的Connect2024大会上,Meta曾宣布将引入一个新功能:基于语音驱动的AI角色(voice-onlyAI-enabledNPCs)。不过目前在公开版本的Worlds桌面编辑器中尚未发现这一功能。根据官方文档显示,该功能目前似乎仅对"第二方开发者"开放--即由Meta直接签约合作的开发团队。普通创作者可能还需等待一段时间才能体验到这一功能。🏞️"AI生成世界"功能即将到来正如Meta在今年5月所预告的那样,Worlds桌面编辑器还将新增一项重磅功能:AI自动生成完整虚拟环境。这项功能被命名为EnvironmentGeneration(环境生成),Meta表示它将"非常快就要上线",并能让创作者"基于多种不同主题构建虚拟环境"。Meta表示,这项功能将支持两种操作方式:通过简单文本提示生成环境通过精细参数控制进行定制化生成Meta还分享了一段30秒的演示视频,展示了该功能的效果。如果最终发布的版本能够兑现Meta所承诺的能力,那么这将大大降低创建互动社交VR世界的门槛,让原本需要数小时的工作,在几分钟内即可完成。✅总结:AI让VR创作变得更简单随着Meta不断强化其AI创作能力,HorizonWorlds桌面编辑器正逐渐成为VR内容创作领域的重要工具。从音效、脚本、模型到整个虚拟环境,AI正在帮助创作者以前所未有的速度和效率打造沉浸式世界。对于希望快速上手VR社交内容创作的用户来说,这无疑是一个令人振奋的发展方向。📌编者按:AI技术正在彻底改变数字内容创作的方式,而Meta正在将其应用于VR领域。未来,任何人都可以通过几句话生成一个完整的虚拟世界。这不仅是技术的突破,更是创意民主化的关键一步。
近日,OpenXR联盟发布了全新的"OpenXR空间实体扩展(SpatialEntitiesExtensions)"标准,旨在为AR、VR和MR应用提供一套通用的技术接口,以实现对现实世界环境的感知和交互。这些新标准涵盖了:表面检测(SurfaceDetection)标记追踪(MarkerTracking)空间锚点(SpatialAnchors)数据持久化(Persistence)这些功能长期以来依赖于各厂商自有的SDK或扩展接口,如今首次在OpenXR框架下实现了标准化。📚什么是OpenXR?OpenXR是一个面向AR、VR和MR应用开发与运行时的开放标准API。它由非营利性行业联盟KhronosGroup主导管理,该组织同时也是OpenGL、Vulkan和WebGL等图形标准的维护者。OpenXR的核心理念是:让开发者只需编写一次应用代码,即可在多种头显设备上运行,而无需为不同硬件平台使用各自的专属API。目前,几乎所有的主流头显设备、引擎和运行时都已支持OpenXR,苹果VisionPro和PlayStationVR2(PS5平台)除外。🧱OpenXR空间实体扩展详解此次发布的OpenXR空间实体扩展目标在于为开发者提供一套统一的方式,利用头显或眼镜的空间感知能力,构建能够与用户物理环境互动的应用体验。在此之前,这类功能往往依赖于特定厂商的扩展或SDK实现。现在,它们被整合进OpenXR的标准化体系中,大大提升了跨平台兼容性和开发效率。该扩展体系围绕一个基础扩展:✅XR_EXT_spatial_entities这是整个空间实体功能的基础模块,提供了"在用户环境中表示和操作空间元素"的基本能力。在此基础上,还定义了五个关键子扩展:🪟1.XR_EXT_spatial_plane_tracking功能:对现实世界中的平面进行检测与空间追踪用途:可识别桌面、地面、墙面等表面,便于虚拟对象放置🧾2.XR_EXT_spatial_marker_tracking功能:对环境中的视觉标记(如QR码)进行六自由度(6-DOF)跟踪用途:可用于引导导航、触发事件、增强信息展示等场景📌3.XR_EXT_spatial_anchor功能:允许将虚拟内容精确地定位到现实世界中的具体位置用途:支持在特定地点固定虚拟物体,适用于导航、AR游戏、工业维修等🔒4.XR_EXT_spatial_persistence功能:让空间上下文数据在应用会话之间保持一致用途:用户关闭应用后再次打开时,仍能看到之前放置的虚拟对象🗂️5.XR_EXT_spatial_persistence_operations功能:提供对持久化空间数据的高级管理功能用途:包括空间数据的查询、删除、更新等操作,适用于企业级AR场景🗣️官方表态:推动互操作性生态建设Meta的RonBessems是当前OpenXR工作组的主席,他在一份声明中表示:"OpenXR空间实体扩展解决了开发者社区最迫切的需求之一,是我们打造强大且真正可互操作的XR生态系统道路上的重要里程碑。这些扩展经过精心设计,作为一个可发现、可扩展的功能集合,不仅为当前的空间应用打下了坚实基础,也为未来便携式空间计算的持续创新铺平了道路。"🔜后续计划:图像与对象追踪、环境建模等扩展正在讨论中Khronos还透露,目前正在讨论中的后续扩展包括:图像与对象追踪(ImageandObjectTracking)基于网格的环境建模生成与处理(Mesh-basedEnvironmentModeling)这些功能将进一步丰富空间计算的能力边界。💼行业广泛支持:Meta、Google、Unity等七家公司承诺尽快支持包括Meta、Google、pico、Varjo、Unity、Godot和Collabora在内的七家科技公司均已发布官方声明,表达对OpenXR空间实体扩展的支持,并承诺将在其产品和服务中尽快实现这些标准。这标志着OpenXR正在成为全球XR开发者生态系统的核心支柱。📌编者按:随着空间感知能力的标准化,OpenXR再次迈出推动跨平台互操作性的关键一步。对于开发者而言,这意味着更少的适配工作、更高的复用率;对于用户而言,则意味着更稳定、更一致的空间体验。随着更多头部企业的加入,这一标准有望在未来几年内成为XR领域的"事实标准"。
自去年9月正式推出以来,Meta已对其SpatialSDK进行了多项重要改进。这款开发工具旨在让开发者能够使用现有的Android移动应用开发工具(而非传统的游戏引擎如Unity、Unreal或Godot)来构建适用于HorizonOS的应用。这意味着开发者可以继续使用熟悉的工具链,包括:AndroidStudioKotlin编程语言现有的移动框架和库这些工具不仅降低了上手门槛,也为更广泛的Android开发者群体打开了通往元宇宙的大门。🧩HorizonOSUI组件集上线,提升界面一致性早在去年,Meta就为Unity开发者推出了一个UI套件,帮助其构建符合Quest系统设计语言的应用界面。对于消费级操作系统来说,UI套件是开发工具中不可或缺的一部分,它确保第三方应用在视觉和交互上与系统保持一致,从而提供更统一的用户体验。如今,MetaSpatialSDK也加入了HorizonOSUI组件集,这意味着使用该SDK构建应用的开发者无需从零开始设计界面,也能获得与系统一致的外观和体验。这一更新特别有助于非游戏类应用的开发,例如工具类、生产力类或生活服务类应用,使它们在Quest平台上更容易被用户接受和使用。👐InteractionSDK(Beta版本):标准化交互方式,提升用户体验一致性虽然统一的UI设计提升了系统的美观性,但在XR(扩展现实)环境中,交互的一致性往往更为关键。Meta自2022年初就为Unity提供了InteractionSDK,并在去年将其扩展至Unreal引擎。该SDK包含以下功能:直接抓取与持握物体远距离抓取可点击的2D和3D按钮传送机制手势识别等对开发者而言,这意味着无需重复实现这些常见交互逻辑;对终端用户来说,则意味着不同应用之间的操作更加统一,无需反复学习新交互方式。现在,InteractionSDK已作为Beta功能集成进SpatialSDK,取代原有的输入系统,使基于SpatialSDK开发的应用也能享受到与Unity和Unreal开发者相同的交互一致性。⚡性能优化:复杂场景下仍可稳定运行于90fpsMeta表示,已对系统脚本进行了性能优化,并声称:"SpatialSDK应用现在可以更稳定地维持流畅的90fps帧率--即使在处理复杂场景时也不例外。"此外:"更快的ECS查询机制和新增的高级过滤支持,使得开发者可以编写更智能、更高效的逻辑代码,而不会牺牲性能。无论你是在构建高度互动的环境,还是需要频繁更新大量实体对象,这些改进都让打造丰富且沉浸式的混合现实体验变得更加轻松。"📷穿透摄像头访问权限开放:增强现实能力再升级今年早些时候,Meta已向Unity和原生应用开发者开放了Quest3和Quest3S的彩色穿透摄像头访问权限。这项功能的应用场景非常广泛,例如:扫描和追踪二维码检测桌面上的游戏板并叠加虚拟角色与对象在企业引导体验中检测物理对象集成基于云端大模型的视觉AI功能对于使用SpatialSDK的开发者,Meta推出了一个开源的SpatialScanner示例项目,展示了如何以高性能方式实现上述功能。🧰AndroidStudio插件发布:简化开发流程为了进一步提升AndroidStudio(Google官方Android开发IDE)用户的开发效率,Meta发布了一个名为AndroidStudioPlugin(ASP)的插件。该插件宣称:"通过提供项目模板、数据模型检查器以及组件/系统文件模板,显著提升了使用SpatialSDK的开发体验。"Meta表示:"对于新项目,只需下载安装插件并选择我们的模板,即可快速完成初始化设置。"🎨SpatialEditor2.0:无须游戏引擎也能高效编辑2D/3D内容自去年10月推出以来,Meta就为其SpatialSDK提供了SpatialEditor,这是一款无需使用游戏引擎编辑器即可进行2D和3D元素布局、缩放和排列的可视化工具,类似于Apple为visionOS提供的RealityComposerPro。而在最新的SpatialEditor2.0中,Meta引入了:"一种新的组件系统,允许开发者使用XML来定义和管理组件,从而提升灵活性",并可根据XML输入生成Kotlin组件代码。这一更新大大增强了开发者在构建结构化应用时的可控性和效率。🎬PremiumMediaSample:媒体类应用开发更轻松Meta表示,使用SpatialSDK构建最流行的应用之一就是简单的媒体播放器,例如:3D照片查看器360°视频播放器为此,Meta在GitHub上发布了"PremiumMediaSample"示例项目,展示如何流式传输180°、3D以及受DRM保护的内容。此外,官方文档中还新增了一个专门章节,详细介绍了媒体播放相关的技术细节和最佳实践。📌编者按:随着Meta不断推进SpatialSDK的功能完善,越来越多的开发者可以在不依赖传统游戏引擎的前提下,构建高质量的混合现实应用。无论是UI设计、交互控制、性能优化,还是媒体播放,Meta正在逐步将SpatialSDK打造成一套完整的开发体系,为未来的空间计算生态奠定基础。
以前我们也听说过类似的说法:使用VR眼镜可能对视力有帮助。但一直以来,这种说法更多来自玩家或医生的"亲身感受",缺乏严谨科学依据。而现在,这个听起来像是"玩游戏也能养生"的想法,终于有了初步的科学研究支持。🧪日本大学研究发现:VR游戏能改善视力?最近,日本关西学院大学理工学研究科在Interaction2025学术会议上发表了一篇论文,揭示了VR对视力的潜在积极影响。研究人员设计了一款专门用于训练视力的VR游戏,并邀请了10名没有严重眼部疾病的志愿者参与实验。他们在六周时间内以不同频率进行游戏,并测量其视力变化。这款游戏非常简单:玩家需要用控制器瞄准并射击屏幕中出现的圆形目标;每次击中后,目标会向远处移动,迫使玩家在近景和远景之间切换视线焦点。这种机制模拟了现实中"调节眼睛焦距"的过程,有助于锻炼眼部肌肉。👀实验结果令人惊喜!尽管部分参与者每三天才玩一次,所有人在实验结束后都显示出不同程度的视力提升。更有趣的是:那些原本有中度至重度近视的人,随着游戏频率增加,视力改善越明显;而原本只是轻度近视的人,则几乎没有显著变化。这是为什么呢?研究人员认为这可能与一种叫做"假性近视(Pseudomyopia)"的现象有关。🔍假性近视vs.真性近视:区别在哪?假性近视并不是真正的眼球结构问题,而是由于长时间盯着屏幕等近距离用眼行为导致睫状肌疲劳、暂时性地改变了眼睛的聚焦能力。如果长期忽视,假性近视有可能发展为真性近视,但它是可以通过视觉训练来逆转的,比如:不断在远近之间切换焦点观察立体图像所以,那些在游戏中看到明显视力提升的参与者,很可能是他们的假性近视得到了改善;而那些改善不大的人,可能已经进入"真性近视"阶段,需要其他方式干预。值得一提的是,这些参与者都是从学校信息科学专业挑选的学生,长时间面对电脑,属于典型的假性近视高发人群。💬网友热议:这是真的吗?我是不是也该买个VR?这项研究公布后,在网络上引发了广泛讨论:"什么?!这也太神奇了吧!如果这玩意儿真上市,我立刻下单!""VR是三维显示,说不定真的比普通屏幕更有助于眼睛发育。""YouTube上有个医生说近视根本无法逆转,这到底是怎么回事?""这对遗传性近视没用吧?毕竟我们家祖传眯眼。""感觉说得有道理,毕竟VR强迫你集中注意力。听说当年Nintendo3DS也有类似的好处。""通过打游戏恢复视力……听起来像做梦一样。""听上去,刚近视不久的人还有救。"🧬科学家怎么说?未来展望研究团队表示,目前的研究样本量较小,还需要更大规模、更长时间的实验来验证这些发现。他们正在尝试确认:这种方法是否只对假性近视有效;是否也可能对真性近视产生积极影响。如果这一技术被进一步开发推广,也许将来我们可以期待一款专为视力训练设计的VR应用--甚至成为青少年预防近视的新手段。🚀如果是真的,你会不会买一台VR?正如一位网友所说:"与其花几千块去做激光手术,让医生拿削肉刀一样的工具在我眼球上操作、再用激光烧一通,我宁愿花几百块买台VR打打游戏顺便养眼--这不是选择题,而是常识。"
这是一篇由VR行业资深从业者撰写的深度反思文章,讲述了他与团队在过去十几年中亲历的VR发展历程,也揭示了当下行业的困境与未来的希望。我们将通过这篇文章,带你一起回顾:VR是如何从"未来技术"一步步走向主流;它为什么在爆发后又陷入沉寂;AR/MR在元宇宙中的真正角色是什么;VR才是通往沉浸式数字世界的真正入口;如果现在不保护VR内容生态,我们会不会错失下一代计算平台的机会?十三年,只为VR|一家工作室的成长史我是DennyUnger,CloudheadGames的创始人兼首席创意官。这家成立于2012年的工作室,曾参与定义了现代VR游戏的核心机制,比如SnapTurn(快照转向)和Teleportation(瞬移系统),并打造了《PistolWhip》《ApertureHandLabs》等广受好评的作品。我创立Cloudhead的初衷很简单:我相信虚拟现实拥有无限的可能性,是一场真正的技术与体验革命。从2013年开始,我们团队从最初的几个人发展到现在超过60人的规模,先后与Meta、Valve、HTC、索尼等头部厂商合作,推出过多款获奖无数的VR大作。今年是我们成立的第十三年,站在这个节点上,我想谈谈我对整个VR行业现状的看法,以及未来我们应该如何继续走下去。VR的成长阵痛:不是技术不行,是时机未到?VR发展至今,经历了多次起伏,也遭遇了不少质疑。但我想先澄清一点:VR并没有失败,只是在经历一场漫长的"进化"。从数据上看,各大科技公司对XR的投入不仅没有减少,反而还在持续加大。硬件方面的发展也在加速推进,虽然方向各异,但整体趋势明确。不过,作为一个仍处于早期阶段的技术形态,VR在消费市场的定位始终像是在"摸索前行"。目前来看,游戏仍然是推动VR市场增长的核心动力,而生产力工具、通用应用等领域尚未找到真正落地的突破口。这背后有很多原因,我们后面会详细分析。让我们先回顾一下VR近些年的几个关键节点。第一次低谷:PCVR的寒冬(2018)2016年,随着HTCVive、OculusRift和PlayStationVR的发布,VR一度被认为是"下一个风口"。然而,到了2018年,市场却陷入了停滞。当时的主要问题包括:成本高昂需要高性能PC支持设置复杂、门槛高缺乏优质内容开发者难以获得足够回报那一年,很多VR初创公司倒闭,投资人也开始观望,整个行业陷入低迷。就在这个时候,Meta推出了OculusQuest--一款不需要连接电脑的独立式VR设备,大大降低了用户进入门槛,也为开发者提供了更集中的平台。可以说,Quest是VR市场的"转折点"。Quest的崛起与疫情红利(2020)2020年,OculusQuest2正式发布,恰逢全球疫情肆虐,人们被困家中,娱乐需求激增。VR市场迎来了爆发式的增长。我们当年推出的《PistolWhip》也搭上了这波浪潮,稳居全球收入排行榜前列。那段时间,VR不仅销量超过了XboxSeriesX/S,还首次在大众视野中与传统主机竞争,带来了前所未有的关注度。更重要的是,大量高质量VR内容开始涌现,生态逐渐丰富。从"希望之坡"跌入"未知深谷"(2022年至今)然而,从2022年开始,VR的上升势头似乎遇到了瓶颈。全球经济环境恶化、消费者支出下降、多家游戏公司裁员甚至倒闭,再加上资本对AI的狂热追捧,让XR投资迅速降温。曾经被视为"元宇宙入口"的XR,突然之间变得不再那么热门。许多从业者开始担心:VR是否又将重蹈2018年的覆辙?技术的耐心与用户的不耐烦VR所承载的愿景非常宏大--它不仅仅是玩游戏,而是彻底改变人类与数字世界的互动方式。但在我们这些从业者看来,XR的发展其实正处在合理的时间窗口内,需要更多时间去打磨硬件、优化软件、提升用户体验。可问题是,主流消费者并不这么看。他们对VR的期待很高,但也非常挑剔。尤其是在以下几个方面:舒适性:长时间佩戴仍然存在疲劳感;社交隔离感:戴上头显就像进入另一个世界,容易让人感到孤立;生态系统不成熟:除了游戏之外,其他应用太少;价格偏高:入门门槛依然较高;操作复杂度:即便设备越来越轻便,使用流程仍不够"傻瓜化"。我把现在的VR比作"穿鞋出门才能做某件事"。人类天生倾向于选择最省力的方式获取娱乐,所以哪怕只是一个小小的动作,比如戴上头显,也可能成为阻碍普及的关键因素。这也解释了为什么VR目前主要吸引的是核心玩家、硬核粉丝和部分年轻群体--这些人愿意为体验付出更多代价。但如果我们想让VR达到智能手机那样的普及程度,就必须解决这些问题。跌入"未知深谷"|VR正站在命运的十字路口对于如今为数不多的VR工作室来说,最大的挑战不是技术瓶颈,而是:我们正处在"当下"与"未来"的鸿沟之间,必须跨越这道名为'未知'的深渊。什么时候VR才能真正迎来它的"重生时刻"?答案是--当消费者愿意长期佩戴一款既舒适又时尚、功能全面的设备时。那将是一个终极入口:它通向虚拟世界;它承载娱乐、工作、教育等一切人类活动;它将成为你生活中不可或缺的一部分。换句话说,未来的VR设备不只是工具,而是生活方式本身。但问题是:当这一天真的到来时,还有多少VR工作室能活下来?又有多少人还记得怎么打造真正的沉浸式体验?AR≠元宇宙|MR只是通往未来的"前菜"近年来,增强现实(AR)受到了越来越多的关注,尤其是在Meta、苹果等巨头纷纷推出轻量级AR眼镜之后,很多人开始认为这才是"未来"。但DennyUnger指出一个非常重要的观点:AR是迈向元宇宙的重要一步,但它并不是终点。AR的核心在于"锚定信息",也就是把数字内容叠加在现实空间中,比如导航提示、天气信息、虚拟助手等等。而真正的沉浸式体验--那种能让你完全进入另一个世界的感受--仍然来自于VR。换句话说:AR是工具,VR是体验。他甚至提出一个有趣比喻:"我们可以把MR/AR看作是通往VR的'入门甜品'。"因为一旦你尝到了虚拟世界的魅力,就很难再满足于只是在现实基础上加点特效。"杀手级应用"不是空间图标|而是"重塑现实"的能力那么,XR技术真正的"杀手级应用"到底是什么?Unger给出了一个非常具有前瞻性的答案:不是空间里的小工具图标,而是能够重新定义现实的沉浸式体验。当未来的XR设备足够轻便、舒适、智能时,人们将不再只是"使用"设备,而是"生活在其中"。你可以:把客厅变成城堡让办公桌漂浮在海底在云端开一场会议把自己变成《Minecraft》世界里的方块人这不是幻想,而是即将成为现实的技术趋势。有些人可能会觉得这是"反乌托邦"的设想,但在Denny看来:真正的元宇宙将打破现实中的阶级壁垒,让每个人都能在定制化的虚拟环境中自由地生活、工作和社交。这种"可塑性极强的现实"才是XR的终极形态。VR的未来:不止是切换模式,更是"重塑人生"更重要的是,未来的XR将具备"模态切换"能力,用户可以在虚拟现实(VR)与混合现实(MR)之间自由切换。想象一下:清晨醒来,你戴上轻便的XR眼镜,把卧室变成阳光海滩;上班时间,你在虚拟办公室中与同事开会;午休时,你进入全沉浸式VR游戏,体验一段史诗冒险;晚上回到家,你又切回MR模式,继续处理未完成的工作。这就是所谓的"模态VR未来"--一种无缝衔接现实与虚拟的生活方式。当然,这种高度依赖AI自动生成的"幻境"虽然酷炫,但也可能略显空洞。所以当用户从这些"自动构建的世界"中走出来后,他们依然会渴望那些由人类精心设计的高质量内容:故事感更强的游戏、电影级的VR影片、深度交互的教育项目……这些,才是VR的"灵魂"。不容忽视的机会|为什么我们必须保护VR创作者?这也是为什么Denny强调:未来5-10年,我们必须大力支持现有的VR工作室。过去十几年,VR行业已经积累了大量宝贵的经验和技能体系,比如:如何设计自然的移动机制(SnapTurn、Teleportation)如何避免晕动症如何优化UI/UX以适应三维空间如何讲好一个沉浸式的故事……这些经验远未被主流行业广泛接受,但却构成了未来XR生态的基石。如果我们在这个过渡期失去了这些人才和知识储备,那未来即使硬件再先进,也会陷入"有设备没内容"的尴尬局面。VR的未来就在眼前|别让它再次错过风口如果你正在关注XR领域,或者已经在投资、开发相关项目,Denny有一个重要提醒:不要错过这场即将到来的文化革命--它将彻底改变我们如何生活、工作和娱乐的方式。没错,通往未来的道路需要时间,需要耐心,也需要持续的投入。但正如他所说:"也许听起来像个创业者……但我可以告诉你:那一天,不会太远了。"结语:VR没死,它只是刚开始2013年,Denny创立CloudheadGames的时候,就已经坚信:VR是一项能让人"穿越时空"的技术,它能激发前所未有的情感、视角和认知。它不仅会改变娱乐产业,还会深刻影响教育、培训、医疗等多个领域。如今,十多年过去了,他说:"我可以负责任地说一句:VR并没有死去,它只是刚刚起步。"
最近,InterDigital联合市场研究公司FuturesourceConsulting发布了一份报告,标题是《MediaoverWireless:NetworksforUbiquitousVideo》,里面提出了一个非常现实的问题:随着实时3D(RT3D)和扩展现实(XR)服务越来越普及,现有的网络架构可能已经撑不住了。换句话说:我们正在进入一个"戴上眼镜就能走进数字世界"的时代,但问题是--我们的网络还没准备好。XR不只是游戏|它对网络的要求远超视频这份报告指出,XR应用正在给无线网络带来前所未有的压力。相比传统视频流媒体,XR对延迟、带宽和同步性的要求高得多。InterDigital视频实验室负责人LionelOisel表示:"XR市场正进入关键阶段,沉浸式内容不再是小众需求。随着2030年6G标准的发布,XR娱乐将成为一种'默认体验'。从互动式的数字体育场馆,到实时增强的城市导航,再到城市级别的数字孪生系统,都将变得司空见惯。"但他也强调了一个核心前提:"这些体验能否成功落地,完全取决于用户体验质量。极低延迟、即时响应、精准的媒体同步,缺一不可。"简单来说:如果网络跟不上,再酷的XR场景也只是纸上谈兵。手机不是终点|智能眼镜才是"真·杀手级应用"目前,手机仍然是AR和其他沉浸式体验的主要终端。但如果你关注过科技圈动态,就会知道各大厂商都在押注一个未来趋势:智能眼镜即将爆发。MetaQuest3、苹果VisionPro、三星Moohan……越来越多轻量级、可穿戴的XR设备正在进入市场。这意味着:更多设备连接更大流量消耗更高实时性要求一旦这些设备大规模普及,现有网络将面临巨大压力。Futuresource的预测显示:到2031年,全球XR设备出货量将达到8300万台,比2025年增长近四倍!而如果没有相应的网络升级,这个市场可能会陷入"硬件有,体验差"的尴尬局面。更令人担忧的是:40%的消费者已经对当前网络性能表示不满,而这还是在XR没有全面普及的前提下。为什么说XR是6G的"试金石"?InterDigital无线实验室负责人MilindKulkarni在报告中提到:"沉浸式娱乐的需求正在爆炸式增长。当XR设备变得无处不在,我们将不再只是'看'视频,而是真正'走进'视频。未来的无线网络必须为这种转变做好准备。XR是对无线网络的一次终极考验,它的带宽和延迟要求,正是定义6G技术标准的核心场景之一。"也就是说:XR不只是6G的应用场景,更是推动6G成熟的关键驱动力。三星的野心:用5G/6G打造"元宇宙基建"不只是学术机构和研究公司在呼吁变革,头部科技企业已经在行动。以三星为例,早在2022年,它就在韩国大力建设专用5G网络,目标很明确:推动数字孪生发展支持自动驾驶技术提升AI算力调度构建AR硬件生态而在CES和Unpacked大会上展示的MoohanXR头显、移动AI新方案等,都是这套战略的一部分。三星的优势在于:它不仅是一家硬件厂商,还拥有通信基础设施、芯片设计、AI能力等多个核心技术模块。这让它在部署XR生态时,拥有更强的整合能力。此外,三星还明确提出要在韩国建立一套面向非运营商的私有5G生态,重点支持医院、大学、建筑工地、军队和地方政府的工作流程智能化改造。换句话说:三星不是在卖一副眼镜,而是在打造一个"从网络到终端"的沉浸式技术平台。展望未来:AI+XR+6G,三位一体的时代即将到来从2024年开始,AI和XR的结合已经掀起了一波热潮。而现在,6G正好赶上了这趟快车。未来几年,我们可能会看到:更多XR设备走向消费市场更强的AI实时渲染与交互能力更稳定的5G/6G网络支撑起沉浸式体验可以预见:下一个十年的技术主线,很可能就是AI+XR+下一代通信技术的深度融合。
最近Google在XR(扩展现实)领域动作频频,从和三星合作头显,到不断更新AndroidXR生态,整个行业都在蠢蠢欲动。尤其是在TED2025上,Google展示了AI+XR的未来图景--这说明,不只是游戏和社交,XR已经开始向企业级应用发力了。但问题是,虽然很多公司嘴上喊着"要搞XR",真正落地的却寥寥无几。为什么?不是技术不行,而是不知道从哪入手:选什么设备?要不要换系统?员工会不会不会用?有没有安全隐患?别急,今天我们就来聊聊,AndroidXR到底是什么?企业该怎么用?又该从哪里起步?一、什么是AndroidXR?它有什么特别的?简单来说,AndroidXR就是Google把AR/VR/MR都装进Android系统里的一套"操作系统"。你可以把它理解为是Google给VR头显、AR眼镜这些新设备准备的操作系统,就像当年安卓之于智能手机一样。它最大的优势就是:兼容性强:支持各种品牌、各种形态的硬件;开发门槛低:开发者可以用Unity、OpenXR这些熟悉的工具来做内容;开放标准:支持OpenXR,不绑定特定厂商;生态打通:能无缝接入GoogleCloud、PlayStore、GeminiAI等服务。一句话总结:它不是要做一个封闭的"元宇宙",而是想让XR成为企业数字化转型的一部分。二、企业为什么要关注AndroidXR?如果你是企业的决策者,可能会问:"这玩意儿到底能给我带来什么?"我们来看看它的几个核心价值:✅更高效的培训与协作比如工厂的新员工培训,以前靠老带新或者看视频,现在戴上XR设备,就能看到虚拟操作指南、实时语音指导,甚至模拟故障排查。效率高不说,还能降低出错率。✅更直观的产品展示销售团队可以给客户展示3D模型,客户不用拆箱也能"摸"清产品细节。尤其对家具、汽车、工业设备这类高价商品,沉浸式体验能大幅提升转化率。✅更智能的工作流借助GeminiAI,你可以在XR中加入语音助手、智能推荐、实时数据可视化等功能,让一线员工像"钢铁侠"一样工作。✅更环保的消费模式用户通过AR看衣服、看家具,减少退货率;通过VR参加线上展会,节省差旅成本……这些都让企业运营更可持续。三、企业如何开始部署AndroidXR?六个步骤讲清楚Step1:从你已经有的东西开始别想着一步到位买一堆头显。先看看你们公司有没有现成的Android手机、平板、Unity开发经验。因为AndroidXR是基于Android的,所以很多现有资源都能复用。开发者可以用Unity、OpenXR、WebXR来做内容;3D资产可以直接从Blender、Maya导入;App也可以直接发布到PlayStore;甚至连手势识别、空间UI、GeminiAI都内置好了,开箱即用。也就是说,你不需要从零开始,只需要找到合适的工具,组合一下就行。Step2:选好你的硬件设备目前市面上已经有几款AndroidXR兼容设备在路上了:三星ProjectMoohan头显(主打轻薄便携)Haean智能眼镜(类似AR眼镜)HTCVIVE的新一代企业MR头显而且由于AndroidXR支持跨平台,未来还会陆续有索尼、XReal、MagicLeap等厂商加入。建议企业先从小场景做起,比如:用手机和平板做3D展示用信息亭做自助导览再逐步引入头显、眼镜等设备初期做个试点项目,比如仓库培训、设备演示,验证效果后再慢慢扩大规模。Step3:安全合规不能忽视XR不只是个酷炫的技术,它也意味着更多数据采集、更多终端连接、更多潜在风险。所以企业在部署时要注意几点:是否支持加密、远程擦除、权限控制?是否能接入现有的MDM(移动设备管理)系统?数据是如何传输和存储的?是否符合隐私法规?目前AndroidXR基于Android系统,本身就有VerifiedBoot、PlayProtect等安全机制,但企业最好还是自己再做一次风险评估。Step4:把XR整合进你的系统里别让它变成孤岛。如果只是用来做个产品展示,那就太浪费了。真正的企业级XR应该能:和ERP、CRM系统打通接入实时数据仪表盘支持API调用,对接AI模型甚至整合IoT传感器、生产线数据AndroidXR支持OpenXR,几乎可以对接任何系统。你还可以通过Google的ImmersiveStream服务实现云端渲染,适合远程销售演示、客户导览等场景。Step5:别忘了培训你的员工再好的技术,没人会用也是白搭。好消息是,AndroidXR是基于Android的,所以员工对基础操作应该都不陌生。但如果你想让他们真正发挥XR的潜力,建议做点定制化培训:开发者看官方文档、参加训练营;普通用户做头显教程、模拟操作;加个GeminiAI助手提供实时帮助;再配上远程诊断、问题反馈机制。这样,员工才能真正把XR当成日常工作工具。Step6:从小处试水,逐步放大XR并不是一次性投资,而是一个持续迭代的过程。建议企业先选一个小场景试点,比如:新员工培训客户产品演示虚拟巡检维修然后根据使用情况收集数据,看看哪些功能受欢迎,哪些体验不好,再优化调整。你还可以让GeminiAI帮你分析数据趋势,生成报告给管理层参考。四、结语:XR正在成为企业标配XR不再是科幻电影里的黑科技,也不是只有大厂才玩得起的昂贵玩具。随着AndroidXR的推出,越来越多的企业可以低成本地接入这一新兴技术,并将其融入自己的业务流程中。无论是提升效率、增强体验,还是推动数字化转型,XR都将成为未来几年不可忽视的技术力量。所以,与其观望,不如现在就开始了解、尝试、小步快跑地推进。毕竟,谁也不想等到别人已经开始规模化用了,自己还在研究"这是啥"。
走进任何一场关于零售创新的峰会,翻阅最新的行业趋势报告,或者与一位目光长远的首席体验官(CXO)交流,你都会听到一个几乎统一的声音:"AR与VR将重塑零售业的未来。"从互动试衣镜到元宇宙中的沉浸式购物中心,增强现实(AR)和虚拟现实(VR)持续激发着行业的想象力。作为一名长期追踪这一领域的VR52网编辑,我曾目睹令人震撼的技术演示和极具前瞻性的产品路线图--它们有可能彻底改变我们对"购物"的认知。然而,一旦走出这场"技术炒作"的泡沫,与真正的零售决策者对话,浏览实际应用案例,或是访问品牌的数字门店,你会看到一幅截然不同的画面:AR/VR在讨论中热度极高,但在落地层面进展缓慢。为什么会有如此多关注?沉浸式技术的确潜力巨大我们承认一点:AR和VR的前景并非空穴来风,它确实具备真实的价值:AR让消费者可以在不接触实物的情况下,直观地看到一盏灯是否适合自家客厅,一双运动鞋穿在脚上的效果;VR则打造了虚拟购物中心和展厅,让用户足不出户即可"漫步"于商店之中;对品牌而言,这种技术带来了更具个性化的体验、更高的客户参与度,并通过减少退货率推动更可持续的消费模式。无论是高端奢侈品牌还是新兴的DTC(直面消费者)初创公司,都渴望在这块"沉浸式蛋糕"中分得一杯羹。但问题是,从概念验证到规模化落地的道路依旧崎岖。为何落地仍举步维艰?AR/VR在零售中的主要挑战大多数零售商的AR/VR项目仍停留在小范围试点阶段。根据我们对全球多个市场的持续观察,目前普及困难的主要原因如下:1.初期投入高昂打造高质量、有吸引力的沉浸式体验成本不菲。要实现这一点,通常需要:精通3D建模的专业人才动画设计与用户界面(UI)开发能力跨平台开发经验再加上硬件支持的成本(如VR头显、AR设备甚至智能镜子),对于中小型零售商来说,这是一道难以逾越的门槛。许多企业很难在无法清晰预估投资回报率(ROI)的前提下进行大规模投入。2.实施过程复杂AR/VR并非即插即用的技术,它的部署需要与多个系统无缝对接,包括:产品数据库库存与履约系统移动端或网页端应用程序这意味着不仅要整合技术栈,还要协调不同部门的工作流程,涉及IT、运营、市场等多个团队,实施难度远高于传统数字化升级。
增强现实(AR)是一个充满无限可能的创意领域,总能不断涌现出令人兴奋、实用甚至只是单纯有趣的新点子,让人对未来的人机交互方式充满期待。最近,设计师AdamVarga展示了一项颇具创意的用户体验(UX)实验--一种将实体文件夹变成AR空间入口的概念设计。这项创意尤其受到办公族的青睐:你只需像打开"魔法口袋"一样打开文件夹,就能从里面取出所需的物品,使用完毕后又可以轻松地放回去。这个原型是使用Three.js开发的,虽然目前只是一个网页端概念演示,但它的交互逻辑和视觉呈现却非常接近当前主流AR设备的使用场景。我们完全可以想象它成为AppleVisionPro或MetaQuest系列设备中的一部分功能,融入未来的生产力工具套件中。除了这个文件夹概念,Varga还提出了许多关于AR的精彩设想,例如支持实时手势交互的界面系统,让使用者通过自然的手势操作来控制虚拟元素,大大提升沉浸感与实用性。这些创新不仅展示了AR在办公与日常交互中的巨大潜力,也让我们更加期待未来AR设备在人机交互设计上的进一步突破。
中风后的GlennCalverley花了好一会儿才意识到自己出了问题。一开始他只是觉得头痛得厉害,怎么也缓解不了。直到视力发生剧烈变化,他才明白事情不对劲。一年半过去了,这位57岁的患者现在色彩辨识能力下降,眼前经常出现本不存在的斑点。更重要的是,他的左侧上方视野完全缺失。"比如我坐在那儿看电视,猫走进房间我都看不见,因为我根本看不到眼角的东西。"Calverley说,"走在人行道上,我也可能一头撞上电线杆。"如今,加拿大阿尔伯塔大学的一支研究团队正尝试用混合现实(MR)眼镜来帮助像Calverley一样因中风或其他脑损伤而失去部分周边视力的人群。这项研究成果已发表在《神经眼科学杂志》(JournalofNeuro-Ophthalmology)上。什么是偏盲症?Calverley患的是偏盲症(hemianopsia),即双眼都失去了半个视觉范围。这种病症并非由眼睛本身损伤引起,而是由于大脑中负责处理视觉信息的通路受到了损害。例如,如果大脑右半球的视觉纤维受损,那么双眼的左侧视野就会丧失。据美国中风协会统计,约有30%的中风幸存者会经历不同程度的视力丧失。目前针对偏盲症的治疗手段非常有限,主要包括使用棱镜和眼球运动训练等方法。许多患者因此不得不放弃工作,甚至外出散步也充满危险--因为他们无法看到一侧的障碍物。混合现实技术带来新希望为了解决这个问题,研究团队开发了一种新型软件系统。该系统通过头戴设备上的摄像头实时捕捉周围环境,并将画面压缩至患者仍能感知的视觉范围内。"作为一名从医超过25年的眼科医生,我常常遗憾地告诉患者:'很抱歉,目前没有太多可以帮到你的办法。'"项目负责人EdselIng教授表示。他是阿尔伯塔大学眼科与视觉科学系主任。他说:"这套混合现实眼镜可以把大部分原本看不见的视觉区域重新呈现出来,虽然位置不同、尺寸有所缩小,但至少能看到。对偏盲症患者来说,这等于把整个世界又还给了他们。"Ing将这项技术称为"画中画导航"(picture-in-picturenavigation)。他在最近发表的论文中公开了这一技术原理和代码,作为概念验证分享,希望程序员和患者能够基于此进一步定制属于自己的眼镜,或者推动其商业化。这套系统可在微软售价约6000加元的HoloLens2混合现实眼镜上运行。不同于主要用于游戏的虚拟现实(VR)眼镜,混合现实(MR)眼镜允许佩戴者透过镜片看到真实世界,同时还能叠加来自摄像头的图像信息。实验结果令人鼓舞研究人员对包括Calverley在内的五名患者进行了测试:他们在一条设有四个软障碍物的50米长路径上行走。未佩戴眼镜时,三人全部撞上了障碍物;而戴上眼镜后,只有一人碰到一个物体。患者们对眼镜的帮助程度评分平均为74.3分(满分100分)。自从中风以来,Calverley一直在接受康复训练,学习走路时多转头观察。他现在已经不能开车了,但他觉得自己正在逐渐适应生活。他也表示,这款混合现实眼镜确实对他有所帮助。"他们知道我哪里看不见,然后把那些区域的画面放进去,让我不得不去注意那里。"Calverley说。在测试中,他一次障碍都没撞上。该项目由EdselIng主导,计算机工程专业学生IshaanRoy参与开发,电气与计算机工程教授MahdiTavakoli提供指导。此外,眼科医生AlbertoGalvezRuiz和ImranJivraj也提供了协助。展望未来:继续攻克视觉障碍难题接下来,Ing计划继续探索其他中风或脑创伤患者常见的视觉问题解决方案,例如扭曲的复视(扭转性复视)或持续晃动的视线(眼球震颤)。"在我们真正修复脑损伤或重建视觉通路之前,计算机科学家和医生应该继续携手创新,努力改善中风和脑损伤患者的生活质量。"Ing说道。
近日,斯坦福大学的VR研究团队在顶级社会科学期刊上发表了一篇重要论文,系统梳理了过去几十年关于虚拟现实的心理学研究成果,并总结出了五个关于VR媒介的"基础真理"。这篇发表在《NatureHumanBehaviour》上的论文还附带了一张图表(如下图),清晰地列出了这些关键发现对研究人员和普通用户的意义。VR头显的本质:从MetaQuest3S到VisionPro,它们本质上是同一类设备对于经常关注VR领域的读者来说,其中一些观点可能并不陌生。但如果你是通过朋友分享第一次接触到这篇文章,或许会感到惊讶--原来售价仅300美元的MetaQuest3S和高达3500美元的AppleVisionPro,其核心本质都是一样的:一款虚拟现实头显。而且,这项技术的发展已经持续数十年,并正在稳步走向主流消费市场。论文中还附带了一条时间线(如下图),展示了VR研究发展的历史脉络。论文摘要:消费者应了解的五大关键结论以下是论文中提到的五个关键发现,以及它们对普通用户的实际意义:选择头显前明确用途如果你是为了健身训练,可以优先考虑专为运动优化的应用。研究表明,这类应用在VR中表现尤为出色。化身系统会影响你的自我认知和行为使用虚拟化身的VR应用可能会潜移默化地影响你的自我态度和长期行为模式。例如,当你以一个高大、自信的角色形象出现时,现实中也可能变得更加自信。2D内容在某些教育场景中更有效对于学生群体来说,是否使用VR教学取决于具体课程内容。某些情况下,传统的2D屏幕可能更适合知识传授。警惕隐私风险VR设备通常配备多个外向摄像头,能够捕捉大量环境数据。建议在使用前仔细阅读用户协议,了解潜在的隐私泄露风险。不同头显对动作精度的支持存在差异如果你使用的VR应用需要精确的手部或身体追踪,请注意所用设备的性能限制,这可能会影响体验质量。全文可读:斯坦福官网提供完整论文你可以在斯坦福大学官网上阅读这篇完整的研究论文。论文同时呼吁进行更多长期追踪研究,以全面评估VR技术的潜在负面影响。VR的主要用途是什么?研究提出"DICE"分类法论文中还提出了一个便于记忆的概念框架--DICE,用来概括我们当前主要使用VR的四大目的:"我们主要将VR用于那些在现实世界中难以实现的体验:危险的(Dangerous)、不可能的(Impossible)、反效果的(Counterproductive)或昂贵的(Expensive)场景。"这正是斯坦福VR实验室主任JeremyBailenson在其2018年著作《ExperienceonDemand》中提出的理念。举几个例子:训练消防员应对火灾现场协助中风患者康复治疗通过虚拟雕塑博物馆学习艺术史身临其境地感受地球未来气候变化的影响这些都属于DICE的范畴。而另一方面,论文也指出:"人们并不一定非得戴上头显才能查看邮件、看电视或处理日常办公任务。这些功能在2D屏幕上运行得更好。如果盲目将这些应用场景强行塞进VR,只会放大其局限性。"VR究竟是"想用",还是"必须用"?这是论文中一个非常有趣的视角:我们应该区分"因为想用VR"和"因为不得不使用VR"的场景。我个人使用Quest3是因为我可以在里面打迷你高尔夫,每周还能和同事一起在数百人面前讨论未来趋势;而我之所以喜欢使用VisionPro,是因为我可以"登上月球"开始一天的工作,然后把地球缩小成一个小球,再缩放回街道层面。这些体验要么在现实中根本无法实现,要么成本极高。而在这种情境下,顺便用VR来收发邮件、看视频、工作,只是让我能更长时间地沉浸在这个奇妙的空间里。
Valve创始人GabeNewell的脑机接口公司StarfishNeuroscience:打造下一代神经芯片,通向"矩阵"更进一步Valve创始人GabeNewell所创立的脑科学公司StarfishNeuroscience(海星神经科学)近日宣布,正在开发一款专为下一代微创脑机接口设计的定制芯片。这项技术不仅令人惊叹,而且可能比我们想象的来得更快。与imec合作:打造超低功耗、微型化神经芯片该公司在其官方博客中更新了项目进展,表示正与全球顶尖研发机构imec合作,共同开发一种超低功耗的定制神经芯片。这款芯片的目标是支持未来的无线、无电池脑植入设备,能够在多个大脑区域同时读取和刺激神经活动--这是治疗涉及"神经回路级功能障碍"的复杂神经系统疾病的关键能力。这也是GabeNewell在此前多次演讲中提到的所谓"读写"能力(readandwrite)的技术基础。MikeArmbinder(左)和GabeNewel(右)|图片由Valve提供突破当前微创脑机接口的瓶颈目前市面上的微创脑机接口技术,通常存在几个问题:体积大、功耗高、难以在多个脑区扩展部署。例如,2023年获得FDA批准的Neuralink,主要聚焦于对大脑运动皮层的单一区域干预。而Starfish的目标是通过微型化设计,降低手术负担,使得植入物可以轻松部署在多个脑区,实现更广泛、更精细的神经调控。尺寸仅2×4mm!GabeNewell的"脑芯片"来了这款芯片的尺寸仅有2毫米×4毫米,堪称微小。如果你曾想象过从一个由Valve创始人创办的公司手中看到一张"脑芯片参数表",欢迎来到未来。以下是Starfish首代神经芯片的核心规格:低功耗:正常记录状态下总功耗仅为1.1毫瓦微型封装:采用0.3mm引脚间距的BGA封装双模功能:支持神经信号记录(如神经元尖峰放电和局部场电位LFP)与电刺激(双向脉冲)32个电极位点,其中16个可同时记录,采样率高达18.75kHz1个电流源,可在任意一对电极上进行刺激内置阻抗监测与电压瞬态测量功能片上数字数据处理与神经尖峰检测,使设备可通过低带宽无线接口运行基于台积电55nm工艺制造仍处于早期阶段,现招募合作方尽管这一项目尚处于早期阶段,但Starfish表示已开始寻求早期合作伙伴,尤其是那些专注于无线供能、通信协议及可植入神经设备的研究者和工程师,以探索该芯片在未来应用中的可能性。据称,该芯片预计将在2025年底前面世。GabeNewell:"我们离'矩阵'比你想象的更近"正如GabeNewell多次强调的那样,这项技术的潜力远不止医学领域。早在2023年接受IGN采访时,他就曾大胆预测:"我们离《黑客帝国》(TheMatrix)描述的那种体验,比人们想象的要近得多。"他解释说:"连接人的运动皮层和视觉皮层,其实比很多人预想的要容易得多。比如,读写一个人的运动皮层,是一个相对可控的问题,但让人感受到'寒冷'这种感觉却要复杂得多。""我以前也没想到这一点。事实证明,你的大脑对某些功能有非常好的接口,但对其他感知机制的设计却非常混乱,甚至牵扯到免疫系统参与温度感知。这说明冷感的神经路径异常复杂,而运动皮层或视觉皮层则更容易被理解和操控。"Valve曾展望脑机接口如何改变游戏体验早在2019年,在GabeNewell还未完全退出Valve日常运营之前,该公司首席实验心理学家MikeAmbinder就曾在GDC上发表题为《脑机接口:游戏未来的可能方向》(Brain-ComputerInterfaces:OnePossibleFutureforHowWePlay)的主题演讲。他在演讲中指出:"我们可以测量玩家对游戏中各种刺激的反应。虽然目前的数据获取还不够稳定,但我们已经开始摸索方法。试想一下,你想了解玩家的哪些状态?这个清单非常长,而借助现有的技术、分析手段和实验方法,我们已经可以获取其中相当一部分信息。"他所描绘的未来,正是如今Starfish正在努力实现的方向:将人类意识直接接入虚拟世界。
继去年首次推出AndroidXRSDK(软件开发工具包)后,谷歌于近日发布了其第二个开发者预览版本(DeveloperPreview2)。这一更新带来了多项新功能和改进,包括更广泛的沉浸式视频支持、更强的自适应用户界面布局、ARCore对手部追踪的支持等。该版本在GoogleI/O2025大会上正式宣布,标志着谷歌进一步推动其在扩展现实(XR)领域的战略布局。此次更新旨在为开发者提供一套更加标准化、统一的工具链,帮助他们既可以开发原生的XR应用程序,也能将现有的Android应用轻松适配到头显设备上。支持180°与360°立体视频播放(基于MV-HEVC编码)新版AndroidXRSDK引入了对MV-HEVC格式的支持,允许播放高质量的180°和360°立体沉浸式视频。MV-HEVC是目前最流行的3D视频编码格式之一,专为高画质沉浸式内容优化,适用于VR影视、虚拟旅游、教育等多个场景。JetpackCompose支持XR:打造统一UI布局谷歌还宣布将JetpackCompose扩展至XR平台,使开发者能够通过SubspaceModifier和SpatialExternalSurface等工具,在各种XR显示设备上实现自适应的用户界面布局。JetpackCompose是谷歌推出的声明式UI工具集,致力于在手机、平板和沉浸式设备之间统一UI设计语言。如今,它也正式成为构建跨平台XR应用的重要组成部分。ARCoreforJetpackXR新增手部追踪功能本次更新中,ARCoreforJetpackXR的一大亮点是引入了对手部追踪的支持,涵盖26个关键关节点(jointpose),可实现基于手势的交互操作。谷歌为此提供了更新的示例代码、性能基准测试工具以及详细的集成指南,帮助开发者快速将手部追踪功能整合进应用中。MaterialDesignforXR进一步拓展谷歌还在其MaterialDesign设计体系中加入了更多面向XR的优化,表示这将有助于"让大屏应用无缝适应XR新世界"。这意味着未来的Material风格UI将更好地适配VR/AR设备,带来一致且美观的视觉体验。开发者仍需依赖模拟器进行测试尽管AndroidXR正在快速发展,但目前大多数开发者尚未能接触到官方认证的AndroidXR头显设备。谷歌计划在今年晚些时候推出搭载AndroidXR的设备,包括三星的混合现实头显ProjectMoohan和XREAL的增强现实眼镜ProjectAura。因此,AndroidXR模拟器成为了开发者不可或缺的工具。谷歌也在本次更新中大幅优化了模拟器功能,新增了对AMDGPU的支持、提升了稳定性,并与AndroidStudio实现更紧密的集成,从而改善整体的XR应用测试与开发流程。Unity支持升级:提升性能与模板能力作为当前最受欢迎的XR开发引擎,Unity也推出了其OpenXR插件第2版本的预发布版,带来了多项性能优化:动态刷新率控制(DynamicRefreshRate)ShaderGraph支持SpaceWarp技术(用于提升帧率表现)此外,Unity的MixedReality模板也进行了重大升级,新增了真实感手部网格遮挡(handmeshocclusion)和持久锚点(persistentanchors)等功能。谷歌还发布了针对Unity的AndroidXR示例库(Samples),展示了如何在实际项目中集成手部追踪、平面追踪、面部追踪及透视显示(passthrough)等核心功能,为开发者提供了一个良好的起点。谷歌AndroidXR眼镜即将登场虽然AndroidXR在今年的GoogleI/O上并未成为焦点,但谷歌仍在持续推进其生态建设,不仅将其扩展至更多合作伙伴设备,还计划在未来推出由WarbyParker和GentleMonster联合设计的AndroidXR智能眼镜。据透露,谷歌将推出两种主要型号:一款外观与功能与Ray-BanMeta智能眼镜相似的产品;另一款则配备了内置显示屏,支持执行基本任务,如阅读短信、查看照片与视频、导航等。如何获取更多信息?你可以在AndroidXRDeveloperPreview官方页面获取有关当前所有工具与更新的详细信息,包括完整的API文档、示例项目、最佳实践指南等。
提到虚拟现实中的"轻互动",我们不能不提乔恩·费儒(JonFavreau)--这位曾执导《钢铁侠》和《精灵总动员》的好莱坞导演,多年来一直在探索VR和空间计算中如何通过微妙的交互唤起人类最本真的情感。早在2016年,费儒就参与了Oculus的《Gnomes&Goblins》(地精与妖怪)项目的开发。在那场我与他的访谈中,他轻松地说:"什么都不会跳出来吃你。"当我问他该怎样向我的孩子们介绍这个PCVR体验时,他笑着补充道:"别担心,这里没有吓人的东西。"在这个应用中,世界会根据玩家的身高自动调整比例。你可以用手柄捡起一颗坚果,然后扔出去逗弄那些可爱的小生物。这种互动方式简单却充满童趣,让人仿佛置身于一个魔法森林。十年后,"恐龙"来了:从Rift到visionOS将近十年后,费儒再次以类似的方式引导用户进入虚拟世界--这一次,是通过苹果的visionOS平台推出的《EncounterDinosaurs》(邂逅恐龙)。这部作品延续了早期OculusRift上的《Dreamdeck》那种"让大生物走进你的客厅"的设计思路。当你戴上头显,一扇门缓缓打开,一只体型接近迅猛龙的恐龙探出身来,仿佛从史前世界穿越而来。这个体验最初是在AppleVisionPro上进行演示的,并在设备发售之初便已上线。它分为两种恐龙形态:一种体型较小,类似于你在2016年Vive上见到的那种;另一种则更大,足以让你感受到一丝压迫感。在与大型恐龙的互动中,你可以与它对视,也可以试着拍拍它的背,选择更主动的接触方式。尽管这些动作看似自由,但其实整个过程高度脚本化--你会发现它的尾巴扫过你的"私人空间",而你甚至不会意识到这是预设好的情节。轻互动的力量:不是控制,而是共处费儒所传达的故事核心始终如一:"没有什么会跳出来吃你。"即使这次有一只恐龙真的对你龇牙咧嘴了一下。相比之下,一些试图将恐龙变成游戏机制一部分的作品反而显得生硬。比如Quest3上的Dots系列角色虽然动作逼真,但在与物理环境互动时常常显得脱节--它们的脚似乎在地面上滑动几步后就会"卡顿",甚至像是"瞬移"一样穿过墙壁。而《EncounterDinosaurs》巧妙地通过"门户"这一设定规避了这个问题:恐龙只是把头和尾巴探出时空裂缝,却已经足够制造强烈的沉浸感--就像《绿野仙踪》里多萝西不小心放了一只来自奥兹国的生物进屋。重交互vs.轻体验:哪种才是VR的未来?有些VR应用尝试将恐龙变成可操作的角色或任务目标,结果却适得其反。例如,《Stay:ForeverHome》中那种从混合现实切换到全虚拟世界的"门"的机制,在几秒内就会让人感到重复无聊。而在《DinoHab》中,你需要清理虚拟地板上的足迹,这更像是机械化的"刷任务"。相较之下,《EncounterDinosaurs》提供了一种更优雅的解决方案--不需要强迫你进入一个完整的虚拟世界,也不要求你去"驯服"或"控制"恐龙。你只需伸手触碰,就能感受到一种奇妙的联系。这让人想起《Walkabout》系列中的"RaptorCliff",在那里,恐龙被塑造成路边的风景和建筑的一部分。为什么这么做?因为创造真正能互动的角色太难了。即使是DreamscapeImmersive的《AlienZoo》,虽然成功复刻了《侏罗纪公园》那种震撼登场的场面,配上恢弘的配乐,仍然难以避免"游戏化"带来的割裂感。"轻互动"背后的人性光辉《Gnomes&Goblins》和《EncounterDinosaurs》共同揭示了一个深刻的道理:我们在面对陌生世界时的第一反应,往往不是征服,而是好奇与温柔。我们可以像《无人深空》或《我的世界》那样重塑地形,但这不是我们在现实中拥有的能力。真正的力量在于那些微小的互动:投喂食物、伸出手掌迎接一只蝴蝶、或是看着恐龙从你面前走过。这些行为不需要复杂的机制,它们之所以动人,是因为它们唤醒了我们内心深处那份对未知的敬畏与温情。正如费儒所说:"接受那个邀请,伸出你的手,你就开始理解为什么'轻互动'能在VR中成为讲故事的强大路径。"
近日,沉浸式学习软件公司HTXLabs宣布获得来自AFWERX(美国空军和太空军创新机构)的一笔金额高达580万美元的战略资金增加计划(STRATFI)资助。此次资助是在HTXLabs成功完成SBIRPhaseII(小型企业创新研究第二阶段)项目后授予的。在该项目中,HTXLabs为英国米尔登霍尔皇家空军基地(RAFMildenhall)的人员开发并交付了面向波音KC-135加油机的虚拟培训解决方案。接下来,HTXLabs将继续与缅因州空军国民警卫队第101空中加油联队维修中队合作,进一步推进该平台的发展,并打造一个面向F-108发动机的虚拟教室,用于培训、准备和支持相关维护人员。F-108发动机是KC-135空中加油机的关键组成部分。探索XR培训的有效性:提升战备水平,降低培训成本HTXLabs此次新项目的重点在于验证基于扩展现实(XR)的培训方法的有效性,特别是在提升维护人员战备能力、以及减少对实体培训资源依赖方面的潜力。HTXLabs首席执行官ScottSchneider表示:"政府需要的不仅仅是技术--他们更希望获得任务就绪、可扩展、易于集成进整体训练体系的解决方案。"他强调,公司致力于提供灵活且安全的技术方案,以满足国防部不断变化的培训需求,并持续推动降低政府开支。EMPACT平台:AI+XR打造互动式虚拟课堂此次项目将依托HTXLabs自主研发的EMPACT平台进行部署。这是一个由人工智能驱动的XR培训平台,使教官和培训专业人员能够创建高度互动的虚拟课堂。通过EMPACT,用户可以构建虚拟培训环境,并部署2D和3D资产,帮助学员发展新的技能或强化已有知识。该平台还支持AI驱动的课程内容生成与个性化学习路径设计,显著提升了教学效率和学习成果。传统培训方式的挑战与XR解决方案的优势传统的培训方式往往面临高昂的成本问题,尤其是在需要获取设备、教材、组织异地培训、支付差旅费用,甚至应对意外损坏材料的情况下。此外,由于设备可用性有限,或审批流程漫长,导致培训机会稀少,这可能会延缓技能掌握进度,进而影响部队的整体作战准备状态。而采用XR技术进行模拟培训,则提供了一个更具成本效益和灵活性的替代方案。虚拟环境无需物理场地布置,也不依赖于现场培训资源,大幅降低了人力与物料成本。政府数字化转型背景下的高效培训探索随着政府机构持续推进支出优化,类似F-108发动机虚拟教室这样的项目,正体现出XR与AI在培训领域的巨大潜力--即提供可扩展、高性价比、高影响力的培训方案。如果本项目取得成功,它不仅有望在军队内部推广沉浸式培训模式,也可能为其他行业树立典范,推动更多企业在岗位培训中引入AI驱动的XR教学系统。展望未来:从军事到民用,XR培训或将全面普及HTXLabs的这一项目代表了一种面向未来的培训理念。如果该计划被证明有效,它可能成为企业广泛部署沉浸式、AI辅助培训系统的重要参考范例,从而全面提升培训质量和学员表现。随着国防部门持续探索提升人员培训效率的新方法,此类项目的成果也有可能推动XR技术的应用范围超越军事领域,向制造业、医疗、能源、教育等多个行业延伸。
VR52网成立于2015年,平台提供VR头显、AR眼镜、配件外设、厂商、测评、行业资讯、游戏与应用、展会活动等。