• 不用专业设备,手机+浏览器即可:开源技术Gaussian-VRM重塑数字身份

    2025-10-27

    在2025年大阪・关西世博会备受瞩目的标志性展馆「null²」中,一项名为「MirroredBody®(镜像身体)」的体验让参观者得以在数字世界中与自己的虚拟分身相遇。支撑这一沉浸式体验的核心技术--Gaussian-VRM,近日已正式在GitHub上开源,高保真3D虚拟化身的生成门槛正被大幅拉低。这项技术由筑波大学博士课程的近藤生也主导开发,其核心亮点在于:仅需智能手机拍摄,即可在极短时间内生成高质量3D虚拟形象。相关成果已发表于论文《InstantSkinnedGaussianAvatarsforWeb,MobileandVRApplications》。与传统依赖专业设备或复杂流程的方案不同,Gaussian-VRM采用当前热门的高斯溅射(GaussianSplatting)技术,在保证画质的同时实现了惊人的处理速度。30秒生成,全流程浏览器内完成用户只需使用支持的智能手机应用(如Scaniverse)对全身进行扫描,系统约30秒内即可完成3D建模。整个流程--从扫描、生成到动画展示--均可在浏览器环境中完成,无需安装任何专业软件。这一"端到端"的轻量化设计,极大降低了普通用户和开发者的使用门槛。为实现高效的跨平台应用,团队开发并采用了基于通用虚拟形象格式VRM的专属便携式格式「Gaussian-VRM(.gvrm)」。该格式支持通过JavaScript进行动作控制,便于集成至Web应用、移动应用及VR内容中,真正实现了从生成到应用的全链路闭环。参考GitHub:https://gaussian-vrm.github.io 论文:https://arxiv.org/abs/2510.13978

  • 三星Galaxy XR:以“真·开放”挑战XR生态格局

    2025-10-26

    在XR设备领域,平台开放性正成为继硬件性能之后的又一关键竞争维度。三星GalaxyXR的发布,为这场关于生态控制权的博弈投下了一枚重磅炸弹--它可能是目前三大主流独立式XR平台中最开放的一个。与苹果的visionOS和Meta的HorizonOS相比,GalaxyXR在用户自由度上展现出显著优势。visionOS完全禁止应用侧载(sideloading),仅允许开发者通过Mac上的Xcode编译应用进行测试。而Meta的HorizonOS虽支持侧载,但流程繁琐:用户必须注册开发者身份,提供手机号或支付卡信息完成验证,并通过PC连接设备才能实现应用安装。相比之下,GalaxyXR的体验则简洁得多。据VR52网实测确认,用户无需开启开发者模式,也无需连接PC,即可直接在设备内置的Chrome浏览器中下载AndroidAPK文件并完成安装。只要在"设置-安全与隐私"中授予浏览器"安装未知应用"的权限,整个过程便畅通无阻。开放不止于侧载:可解锁的引导程序更进一步的是,据某科技博主首次公开指出,GalaxyXR似乎允许用户解锁引导程序。这意味着从理论上讲,开发者可以刷入定制操作系统,实现更深层次的系统级改造。尽管目前尚无通用的独立式XR操作系统可供替换,且驱动兼容性等问题仍构成技术壁垒,但这一可能性为未来社区驱动的开源项目打开了大门。最现实的路径可能是基于设备现有的AndroidXR系统进行深度定制。此类项目的动向值得持续关注。"AndroidofXR"的名号之争MetaCEO马克·扎克伯格及其高管团队曾多次将HorizonOS称为"XR领域的Android",强调其相对于visionOS的开放性。然而,当真正的AndroidXR平台--由谷歌主导、搭载于三星GalaxyXR之上--正式亮相后,这一说法显得颇具讽刺意味。事实证明,谷歌自家的XR平台在开放性上,反而远超Meta的"类Android"系统。开放性之外:厂商支持才是胜负手长远来看,决定谁能成为苹果VisionPro之外主流替代方案的关键,或许并非平台开放程度,而是制造商的采纳意愿。目前,华硕(Asus)和联想(Lenovo)正基于HorizonOS开发XR设备,而Xreal、Lynx和索尼则选择了AndroidXR平台。当市场同时提供价格亲民的AndroidXR设备与高端定位的HorizonOS产品,硬件差异逐渐模糊时,用户将如何选择?届时,平台的开放性差异是否会成为影响决策的核心因素?这个问题,或许将在未来几年的答案中重塑XR生态的权力结构。

  • Unity 正式支持 Android XR,Unity 6 起全面赋能新一代VR应用开发

    2025-10-22

    2025年10月22日,Unity宣布从最新版本Unity6起,正式推出对AndroidXR平台的通用支持。这一更新意味着全球开发者现已能够在Unity引擎中,为包括三星GalaxyXR在内的下一代AndroidXR设备开发沉浸式应用与内容,标志着Unity在跨平台XR开发生态中的进一步扩展。自AndroidXR进入早期开发阶段以来,Unity已持续提供技术支持,并积极参与生态共建。此次正式支持不仅允许开发者快速构建全新的XR应用与游戏,还显著降低了迁移成本--现有的Unity项目可便捷地移植至AndroidXR生态系统,加速内容落地。深度整合Google工具链,覆盖多元应用场景Unity表示,已与Google紧密合作,将AndroidXR相关开发工具提前集成至Unity6中,优化了底层兼容性与性能调校。此举旨在为游戏、教育、娱乐、工业培训等多个领域提供稳定、高效的开发环境,推动高质量沉浸式体验的规模化落地。目前,已有多个基于Unity开发的GalaxyXR发售首发应用亮相。其中包括:Google推出的「GoogleMapsonAndroidXR」,将地图导航体验带入空间计算场景;StatusPROInc开发的「NFLProEra」,以沉浸式方式呈现美式橄榄球训练与战术分析;经典VR工作室OwlchemyLabs(代表作《JobSimulator》)带来的新作「Inside[JOB]」,延续其标志性的幽默交互风格。这些作品共同展示了Unity+AndroidXR在消费级与专业级应用中的广泛潜力。

  • Meta浏览器升级:WebXR无需场景扫描即可放置虚拟物体

    2025-10-11

    Meta旗下Horizon浏览器最新版本(40.4)已正式上线,为Quest3与Quest3S设备带来一项关键升级:WebXRHitTesting(命中检测)功能现已基于深度感知技术实现,无需依赖传统的"场景网格"(SceneMesh),即可在网页环境中完成混合现实(MR)虚拟物体的即时放置。这一更新意味着用户在浏览支持WebXR的网页内容时,能够更快速、更自然地将虚拟对象锚定在现实世界的表面--例如将一个3D模型放在桌面或墙上--而无需预先完成房间扫描。从静态建模到实时感知:HitTesting的技术演进WebXRHitTestingAPI是WebXR开放标准的一部分,允许开发者从某个起点(如用户的头部或控制器)发射一条"概念射线",检测其与真实世界几何体的首次交点,从而确定虚拟物体的放置位置。过去在Quest3系列设备上,该功能依赖于混合现实设置过程中生成的"场景网格"进行射线碰撞检测。然而,这一方式存在明显局限:若用户尚未为当前空间生成场景网格,则必须先完成扫描流程,显著增加了使用门槛;即便已有网格,也无法反映家具移动或环境变化后的实时状态,导致虚拟物体放置错位。深度API驱动:实现动态环境感知此次更新的核心在于,HorizonBrowser40.4版本已将HitTesting的底层技术从场景网格切换为Meta的深度API(DepthAPI)。该API通过计算机视觉算法,分析设备前置双追踪摄像头之间的视差,实时生成第一人称视角的深度帧数据,有效距离约为5米。深度API此前已被广泛用于实现混合现实中的动态遮挡效果--即判断虚拟物体是否应被真实物体遮挡。如今,这一能力被引入网页端,使WebXR应用能够直接利用实时深度信息进行命中检测,从而实现"即开即用"的虚拟物体放置体验。开发者生态的进一步统一事实上,这一功能早已向原生应用开发者开放。Unity开发者可通过Meta的混合现实工具包(MixedRealityUtilityKit,MRUK)轻松集成,Unreal及原生应用开发者也可直接调用深度API实现类似效果。此次更新标志着网页端开发者终于获得了同等能力,进一步缩小了WebXR与原生应用在功能体验上的差距。值得注意的是,当前基于深度API的命中检测更适合用于放置静态、简单的虚拟对象或界面元素。若虚拟实体需要在表面移动或与房间其他部分进行复杂交互(如物理碰撞),仍需依赖完整的场景网格扫描。

  • 人类扩展白皮书发布:四大维度勾勒未来人机融合图景

    2025-10-10

    2025年10月7日,人类扩展联盟(HumanAugmentationConsortium)正式发布《人类扩展联盟白皮书--人类扩展技术开拓的未来场景》。该联盟致力于推动人类扩展技术的发展,以应对社会挑战。此次发布的白皮书旨在促进社会各界对"人类扩展技术"形成统一认知,系统梳理了技术框架、应用场景及潜在挑战。联盟成立于2024年12月,是日本内阁府主导的国家项目"战略性创新创造计划(SIP)第三期"的组成部分。截至2025年10月,已有17家企业和机构、5名个人会员加入,正逐步构建跨领域协作的创新生态。四大扩展维度:重新定义人的能力边界白皮书首次将人类扩展技术划分为四大类别:身体能力、知觉、认知、存在,为技术发展提供了清晰的框架。身体能力扩展:通过外骨骼、义肢、动力辅助服等增强肌肉力量与运动机能。知觉扩展:突破人类五感极限,如增强视觉感知范围、提升听觉灵敏度或引入新型感官反馈。认知扩展:借助脑机接口或AI辅助系统,提升记忆力、注意力、决策力与学习效率。存在扩展:利用元宇宙、远程操控、数字分身等技术,突破物理时空限制,实现"身临其境"的远程存在。支撑这四大扩展的技术要素包括:元宇宙等云应用平台、通用技术平台、各类硬件设备(传感器、控制器、手套、头显等),以及作为核心的"用户"本身。白皮书特别强调,用户是扩展的主体,技术设计必须以人为本。企业实践前沿:从运动辅助到感知共享白皮书中展示了多家会员企业的具体实践案例,凸显技术落地的多样性。美津浓(Mizuno)推出了用于运动员的高性能义足弹簧板,并开发了可减轻体力负担的"美津浓动力辅助服"。此外,其"MotionDNA"系统能科学分析步行姿态,为个性化身体增强提供数据支持。NTTDocomo则构建了名为"人类扩展基盘"的平台,能够吸收人与人、人与机器人之间的身体数据与感官差异,实现动作与感知的共享。该技术有望应用于远程协作、虚拟共演等场景,推动"感同身受"的交互体验。除此之外,白皮书还收录了医疗、制造、教育、娱乐等多个领域的应用案例,展现了人类扩展技术的广泛适用性。构建生态:从技术验证到国际标准未来,联盟将通过技术验证项目、推动国际标准制定、举办专题研讨会等方式,加速人类扩展技术的生态构建。白皮书内容也将根据联盟内部讨论及外部利益相关者的反馈,持续更新迭代。随着技术的演进,伦理、法律与社会影响(ELSI)问题日益凸显。白皮书系统梳理了隐私、公平性、身份认同、责任归属等关键议题,为政策制定与社会对话提供了重要参考。

  • Meta自研Horizon Engine首曝:告别Unity,能否重塑元宇宙入口?

    2025-10-05

    Meta自主研发的HorizonEngine首次披露核心技术架构,标志着其在构建元宇宙底层能力上的关键一步。该引擎在Connect2025大会亮相后,被确认将全面取代Unity,成为HorizonWorlds以及Quest新版沉浸式主界面(ImmersiveHome)的核心动力。目前,新版沉浸式主界面已随HorizonOSv81推送,但仅限于公共测试频道(PTC)用户;而HorizonWorlds中的HorizonEngine支持则依赖即将上线的HorizonStudio,现阶段仅限Meta自研的少数官方世界使用。尽管CEO扎克伯格在发布会上宣称,该引擎为"从零构建",可实现世界加载速度提升4倍、单实例支持超百名用户,但当时并未透露具体技术细节。如今,Meta通过官方博客首次系统性地公开了HorizonEngine的核心模块设计。从云端到移动端:跨平台渲染与资源调度Meta强调,HorizonEngine具备"从高端云端渲染到移动端运行"的自动适配能力。这意味着同一套引擎可在不同性能设备上动态调整表现,兼顾视觉质量与运行效率。引擎支持"单共享空间内大规模实时虚拟形象聚集"、可流式加载的广阔环境(以子关卡形式),并通过自动生成的LOD(细节层次)系统自动管理对象质量。这一特性背后,是资源管理模块的深度优化:引擎内置资源管理器、流式加载系统和多线程任务调度框架,能够在Quest及其他平台的性能波动范围内,动态平衡画质与成本,保障用户体验的稳定性。核心技术栈解析:模块化与创作者友好Meta详细拆解了HorizonEngine的八大核心系统,展现出其对性能、扩展性与创作效率的综合考量:资产系统:采用数据驱动、创作者可控的资产管线,兼容主流工具链,包括PopcornFX(特效)、FMOD(音频)、Noesis(UI)和PhysX(物理)等成熟中间件,降低创作门槛。音频系统:集成空间化音频,将场景音效、沉浸式媒体格式与混合式语音通话(VoIP)无缝融合,构建统一的听觉沉浸体验。虚拟形象系统:深度集成MetaAvatars,确保跨平台化身表现与交互行为的一致性,并支持跨实例的联网人群系统。网络架构:基于"角色"(actor)的可扩展、安全网络拓扑,结合服务器验证与低延迟的玩家预测交互,允许创作者自定义网络化组件,提升多人互动的流畅性。渲染系统:面向移动设备与VR优先的前向渲染器,具备基于物理的着色模型、内置光照烘焙工具、探针定义的动态光照,以及通过可扩展、可堆叠表面着色器系统实现的创作者自定义材质框架。脚本系统:采用可扩展的TypeScript开发环境,统一世界中的逻辑与控制流,支持自定义组件与清晰的实体生命周期管理。模拟系统:基于数据导向的ECS(实体-组件-系统)架构,可高效模拟数百万个联网实体,为大规模互动场景提供底层支持。移动端原生渲染的潜在战略转向一个值得注意的细节是,Meta明确提到引擎"可在手机上运行"。目前,手机端的HorizonWorlds依赖云端串流,不仅对用户网络要求高,也给Meta带来显著的运营成本。若未来转向手机端原生渲染,不仅能大幅提升响应速度与稳定性,还能显著降低服务成本。这一转变或将增强Meta在社交游戏领域的竞争力,使其更直接地对标《堡垒之夜》(Fortnite)和《Roblox》等跨平台创作生态。通过自研引擎掌控全栈技术,Meta正试图摆脱对第三方引擎的依赖,在元宇宙入口的争夺中掌握更多主动权。

  • Meta 推出可穿戴设备接入工具包,允许开发者为其智能眼镜开发应用程序

    2025-09-19

    在MetaConnect2025大会后续更新中,Meta宣布将于今年晚些时候推出WearableDeviceAccessToolkit(可穿戴设备访问工具包),这是一套面向开发者的SDK,旨在让第三方智能手机应用首次直接与Meta智能眼镜(如Ray-BanMeta、OakleyMeta系列等)的硬件功能进行交互。开发者将能访问哪些功能?在初始版本中,该工具包将允许开发者通过用户的智能手机应用,安全地访问智能眼镜的以下核心组件:摄像头(用于拍照、录像或实时图像流)扬声器(用于音频播放或语音反馈)麦克风阵列(支持空间音频采集与语音识别)所有权限均需用户明确授权,每款应用必须在使用前获得用户许可,确保隐私可控。实际应用场景:从直播到AI分析Meta表示,这一SDK将为开发者打开全新的交互可能性。例如:在健身类App中集成第一人称视角直播或录制功能;将眼镜拍摄的实时画面传输至第三方多模态AI模型,实现"你看到什么,AI就分析什么"--比如识别物体、翻译文字、获取商品信息等。值得注意的是,首发版本暂不支持调用Meta自家的MetaAI。这意味着开发者若想构建AI驱动体验,必须:建立持续的音视频数据流;将图像发送至自有的或第三方AI模型;承担相应的计算成本与带宽开销;面对由此带来的额外电池消耗问题。Meta明确表示,集成MetaAI支持是该工具包未来更新的"关键方向"。不支持的功能:显示与手势控制暂未开放目前,该SDK不支持以下高级功能:向MetaRay-BanDisplay的HUD(抬头显示器)发送图像内容;访问MetaNeuralBand的手势识别数据。不过,Meta已确认正在探索这些能力的未来可行性,为更深层次的AR交互预留了技术路径。先行实验:Twitch、微软、18Birdies已在测试早在数月前,Meta已向部分合作伙伴提供了早期版本的工具包,包括:Twitch与LogitechStreamlabs:用于在直播平台中实现第一人称视角直播,功能类似当前Instagram上的支持;MicrosoftSeeingAI:帮助视障人士通过眼镜摄像头实时感知环境,如识别文本、人物、物体和货币,提升独立生活能力;18Birdies(高尔夫应用):正在测试利用眼镜摄像头进行实时距离测算与球杆推荐,让球员无需掏出手机即可获得战术建议,极大提升球场体验。开发者可申请预览版有兴趣的开发者现已可通过Meta官方表单申请加入WearableDeviceAccessToolkit预览计划,提前探索其潜力。从封闭到开放,Meta智能眼镜生态迈出关键一步此前,Meta智能眼镜的功能主要局限于自有生态系统(如MetaAI、WhatsApp、Instagram)。此次推出SDK,标志着Meta正式向第三方开发者敞开大门,推动眼镜从"Meta生态配件"向"可编程可扩展的通用可穿戴平台"演进。虽然初期功能有限且缺乏MetaAI深度集成,但这一工具包为未来的创新奠定了基础:想象一下导航App主动提醒你转弯、购物App自动比价、学习App即时翻译课本--智能眼镜,正逐步成为真正的"全天候个人助理"。

  • Meta 全面重构 Horizon 世界:新自研引擎上线,更快的加载速度和最多 100 个并发用户

    2025-09-18

    在今日的MetaConnect2025大会上,Meta宣布对旗下社交元宇宙平台HorizonWorlds进行一次根本性技术升级--推出全新自研的HorizonEngine,正式取代此前基于Unity构建的技术底座。这一变革不仅将加载速度提升至原来的四倍,更将单场景用户容量从20人跃升至100人,标志着HorizonWorlds正式迈入"大规模社交VR"时代。告别Unity:为"互联世界"而生的专属引擎过去,HorizonWorlds依赖Unity引擎开发,虽具备成熟的工具链,但在跨场景跳转、大规模用户同步和性能优化上始终受限。此次推出的HorizonEngine是Meta首次为Horizon平台量身打造的专属引擎,其核心设计目标明确:实现无缝跳转的互联社交空间。Meta强调,新引擎针对"空间间快速切换"进行了深度优化,加载速度提升4倍。这意味着用户在不同世界之间穿梭时,等待时间大幅缩短,体验更接近现实中的"推门即入",而非传统VR中常见的"黑屏加载"。更重要的是,性能的全面提升使得单个世界可容纳的并发用户数达到100人,是此前上限(20人)的五倍。这一变化将显著改变社交互动的规模与形式--从私密小聚到大型虚拟派对、线上发布会、演唱会等公共活动,HorizonWorlds的应用场景被进一步拓宽。HorizonHome重构:向"统一入口"迈进作为用户戴上Quest头显后的默认起点,HorizonHome也已全面迁移至新引擎。此次重构不仅带来了视觉质量的提升,更引入了多项功能性改进:用户可将常用应用"钉"在虚拟墙壁上,实现快速访问;更重要的是,现在可以将通往不同HorizonWorlds空间的"传送门"直接固定在Home环境中,形成个性化快捷入口。这一变化被外界视为Meta正在推动HorizonHome与HorizonWorlds深度融合的重要信号。两者如今运行在同一技术架构之上,边界正逐渐模糊--Home不再只是一个启动界面,而正演变为一个真正意义上的"虚拟生活枢纽"。创作者革命:MetaHorizonStudio以"对话"构建世界除了底层引擎的升级,Meta还发布了面向创作者的全新工具--MetaHorizonStudio,一个基于"智能代理"(agentic)理念的AI编辑器。与此前推出的AI资产生成工具不同,HorizonStudio将多种创作功能整合进一个基于自然语言的聊天界面。创作者无需编写代码或操作复杂界面,只需用日常语言提出需求,系统即可自动执行。例如:"把场景风格改成科幻风""添加一个会说话的熊角色,它迷路了,需要玩家帮助回家"这类指令将由AI理解并转化为具体的场景修改、角色生成与行为逻辑设定。Meta表示,这将极大降低内容创作门槛,让更多非专业用户也能参与虚拟世界的构建。该工具预计将在不久后推出Beta版,未来或将成为Horizon生态内容爆发的关键推手。技术重构背后,是Meta对"社交元宇宙"的再定义此次HorizonEngine的发布,远不止一次性能优化。它代表了Meta对Horizon平台战略的重新锚定:从"多个孤立的VR小游戏集合",转向"一个连贯、可扩展、高并发的互联虚拟社会"。通过自研引擎掌控技术栈、提升用户体验、重构入口逻辑、赋能创作者生态,Meta正在下一盘更大的棋。虽然HorizonWorlds仍面临用户增长与内容质量的挑战,但这次全面技术升级,无疑为其未来三年的发展打下了坚实基础。真正的"元宇宙"或许还很遥远,但至少现在,你可以在一个百人同屏、秒速加载的世界里,和朋友一起建造属于你们的虚拟家园。

  • 抛弃手柄:Owlchemy为何押注“纯手部追踪”VR

    2025-09-04

    在VR交互演进的十字路口,OwlchemyLabs正坚定地押注一个方向--徒手操作。这家以《工作模拟器》《度假模拟器》等作品定义VR交互标杆的开发商,近年来持续推动手部追踪技术的落地。其最新作《DimensionalDoubleShift》甚至完全摒弃控制器,成为一款仅支持手部追踪的VR游戏。这一选择并非偶然,而是源于对用户行为与技术趋势的深度观察。手部追踪:通往大众化的核心路径OwlchemyLabs认为,手部追踪是当前实现VR最广泛吸引力的关键。相比需要学习按钮布局的控制器,徒手交互更直观、门槛更低,尤其对新用户而言,无需额外设备即可"伸手即玩",大幅降低了进入虚拟世界的摩擦。这一判断正被市场验证:Steam已为手部追踪提供实验性支持,PlayStationVR2也在今年迎来了首批支持该技术的游戏。而Owlchemy自家的前作《工作模拟器》与《度假模拟器》在发售后也陆续通过更新加入了手部追踪功能,顺应了用户对自然交互的日益增长的需求。技术壁垒仍在:PSVR2的跨平台困境尽管趋势明确,但手部追踪的全面普及仍面临挑战。目前,《工作模拟器》或《度假模拟器》短期内不会登陆PSVR2并支持手部追踪。原因在于Unity引擎尚未提供对PSVR2手部追踪的原生支持,开发者必须依赖第三方中间件方案--这不仅开发成本高昂,也增加了技术复杂性。这一现实揭示了当前VR生态的割裂:即便开发者有意推进,平台底层支持的缺失仍是跨设备体验统一的重大障碍。新一代"VR原住民"正在崛起真正让Owlchemy看到未来的,是Z世代末期与Alpha世代初期用户的崛起。这批成长于触屏、手势交互和社交游戏环境中的年轻人,天生习惯"用手直接操作"的数字体验,对VR的自然交互接受度极高。以《DimensionalDoubleShift》为例,其测试版原定目标下载量为2万,最终突破20万,并持续保有稳定的月活跃用户。这与传统2D游戏中"上线即巅峰,随后断崖式下滑"的现象截然不同,显示出VR社交体验的长期粘性。呼唤硬件厂商的勇气Owlchemy指出,当前VR生态正面临一个关键机遇:整整一代"VR原住民"正等待被接入虚拟世界。但能否抓住这一代际窗口,取决于头显制造商是否愿意真正投入资源,优化自然交互体验,降低使用门槛。当手部追踪不再是"附加功能",而是VR设备的默认交互方式,虚拟现实才有可能从极客圈层走向主流大众。而OwlchemyLabs,早已为这一未来铺好了第一块砖。

  • Meta Connect 2025前瞻:智能眼镜SDK或将亮相,开启AI可穿戴新阶段

    2025-09-01

    距离MetaConnect2025大会不到三周,议程已透露关键信号:Meta或将推出智能眼镜相关的SDK,迈出构建AI可穿戴生态的重要一步。大会第二天有三场开发者会议明确提到"9月18日将发布Meta全新开发者工具包",措辞一致,暗示这是一次系统性的开发接口开放。三位主讲人的背景也高度聚焦:LansingLee是Meta产品经理,专注于推动应用向Ray-BanMeta等AI眼镜迁移;ValentinaChacónBuitrago曾参与Meta的SparkAR平台,显示AR技术正被复用于新硬件;ConorGriffiths则负责Ray-Ban和Oakley眼镜的外部软件集成,并主导第三方为Meta未来可穿戴设备开发AR与AI内容。三人角色的共性,清晰指向Meta正在为智能眼镜构建开发者生态。开发者生态的提前布局这一发现恰逢CNBC的报道:Meta已开始接触第三方开发者,邀请他们为即将推出的、配备sEMG神经腕带的HUD智能眼镜开发"实验性应用"。报道特别指出,Meta优先选择"专精生成式AI"的开发者,意图明显--这些应用将作为产品发布时的核心卖点,用于展示设备能力。然而,一个核心问题依然悬而未决:这个SDK究竟会以何种形式存在?目前的Ray-BanMeta与OakleyMetaHSTN眼镜计算能力极为有限,更接近Fitbit而非智能手机或XR头显。Meta首席技术官AndrewBosworth曾多次强调,正是这种算力限制,导致无法提供传统的设备端SDK。SDK的两种可能路径基于现有信息,SDK的发展方向存在两种可能性。其一,是服务器端SDK。开发者并非为眼镜本身开发应用,而是为MetaAI构建集成能力,类似于亚马逊的AlexaSkills模式。用户通过语音或手势触发,由云端AI处理并返回结果,再通过眼镜呈现。这种模式规避了本地算力瓶颈,但功能深度受限于AI服务本身。其二,是面向新一代HUD眼镜的本地化SDK。据多方信源(包括TheVerge、TheInformation、FinancialTimes及Bloomberg的MarkGurman)报道,Meta正秘密推进代号"Hypernova"的智能眼镜项目。这款设备将在单眼中集成微型抬头显示(HUD),用于显示时间、天气、通知、实时语音字幕与翻译,以及MetaAI的文本回复--尽管并非传统意义上的AR,但已具备基础情境感知能力。Hypernova:Meta下一代可穿戴的关键拼图Hypernova的重量据报约为70克,显著重于当前Ray-BanMeta的50克,这一差异很可能源于HUD模组与更强算力芯片的加入。更关键的是,其交互方式将依赖Meta长期研发的sEMG神经腕带,通过手指微动作实现精准控制。Gurman指出,该腕带将随设备附赠。今年7月,早期固件中泄露的渲染图不仅证实了设备与腕带的设计,更在一个刻字细节中暗示了产品正式名称--MetaCeleste。正因Hypernova具备显示能力与来自腕带的丰富输入,其本地算力很可能远超现款眼镜。若其定价在800美元左右,也意味着Meta愿意为更强性能付出成本,这为本地SDK的可行性提供了支撑。未来生态的融合可能当然,最有可能的路径是两者的结合:SDK既支持云端AI能力扩展,也开放部分本地功能接口,形成"云-端协同"的开发框架。开发者可选择将AI服务作为后端,通过眼镜与腕带实现自然交互,最终在HUD上呈现结果。这种架构既能发挥MetaAI的优势,又能利用新硬件的交互潜力。MetaConnect2025即将拉开帷幕,届时UploadVR将带来全部重磅发布的完整报道。而这场大会,或许正是Meta构建智能眼镜开发者生态的正式起点。

  • Meta Quest 3 新增系统级 QR 码追踪:混合现实交互再进一步

    2025-08-28

    无需第三方库,Unity开发者轻松实现QR码6DoF追踪Meta最新发布的MRUtilityKitSDK更新(v78)为Quest3带来了系统级的QR码解码与6自由度(6DoF)空间追踪功能,专为Unity开发者设计。这意味着开发者现在无需依赖第三方或自定义计算机视觉库,即可在混合现实应用中快速集成高精度的QR码识别与定位能力。尽管自今年早些时候起,Meta已向开发者开放了Quest3的透视摄像头访问权限(需用户授权),允许通过自研或第三方方案实现QR码识别,但新推出的MRUtilityKit功能将其提升为系统原生支持。这不仅大幅简化了开发流程,还优化了权限模型:只需启用"空间数据"权限--该权限已用于键盘追踪等其他混合现实功能--而无需请求更敏感的"头显摄像头"权限,提升了用户隐私透明度与应用可信度。系统级"可追踪对象"再添新成员当启用QR码追踪后,SDK将提供包括6DoF位姿、2D边界框、2D多边形轮廓以及解码后的数据载荷(如URL)在内的完整信息。这使得开发者可以精准地将虚拟内容锚定在现实世界中的QR码位置,实现稳定的虚实融合体验。QR码是继"键盘"之后,MRUtilityKit支持的第二种"可追踪对象"。若计入Touch控制器和LogitechMXInk触控笔,Quest3现已具备系统级追踪四种无生命物体的能力。这一扩展标志着Meta在混合现实交互维度上的持续深耕。不过Meta明确指出,与键盘追踪类似,QR码的位置更新频率较低,不适合用于追踪快速移动的物体。虽然系统会在QR码位置发生变化时更新其位姿,但并非实时连续追踪。因此,它无法替代如picoTracker这类专用硬件追踪器,其定位更接近visionOS2的物体识别机制--适用于静态或缓慢移动的场景。性能考量与企业级应用场景由于低频追踪仍会带来一定的性能开销,Meta建议开发者采用动态启用策略:仅在需要时激活该功能,以优化应用整体性能。从应用潜力来看,这一功能或可成为多用户共址体验(colocation)中更可靠的初始校准手段。相比Meta现有的SharedSpatialAnchors系统(在复杂环境中稳定性欠佳),通过扫描同一物理QR码实现设备间空间对齐,可能提供更高的一致性与准确性。尽管在消费端推广面临"用户是否拥有打印机"的现实障碍,但在企业级应用、教育培训、工业维修、展览展示及位置型VR/AR体验中,预置QR码作为空间锚点极具实用价值。例如,在工厂中扫描设备上的QR码即可调出三维维修指引,或在博物馆中通过扫描展品标签激活AR讲解。目前,QR码追踪作为可选功能已集成于MetaMRUtilityKitforUnityv78版本中,支持Quest3、Quest3S及所有未来的HorizonOS头显设备,并兼容最高版本10的QR码标准。

  • 下一代Vision Pro要能“自动贴脸”?苹果新专利揭示动态调节黑科技

    2025-08-27

    VisionPro的舒适性困局,催生下一代"精密贴合"系统自发布以来,AppleVisionPro以其卓越的显示效果与空间计算能力,被公认为当前XR设备的巅峰之作。然而,一个持续存在的用户反馈始终萦绕其上:长时间佩戴不够舒适。这一问题在Reddit等社区屡被提及,甚至成为阻碍其普及的关键门槛。这并非苹果独有的难题--TheVerge也指出,几乎所有头戴式显示器(HMD)都面临类似的佩戴挑战。但苹果显然早已意识到这一点。过去两年间,PatentlyApple持续追踪了苹果提交的多项相关专利,揭示其在提升佩戴舒适性上的系统性布局。而就在上周,美国专利商标局公布了一项迄今为止最为复杂的解决方案:一种动态可调、精准适配面部轮廓的显示模组系统,可能预示着下一代VisionPro的重大进化方向。双自由度调节:让屏幕"追着你的眼睛走"当前的VisionPro虽提供可更换头带与面罩,但在显示模组的位置调节上仍显僵硬--无法精细控制屏幕与面部的距离和角度。而这项新专利的核心,正是引入线性位移(前后移动)与角度倾斜(上下旋转)两大自由度,实现显示单元的动态调整。具体来看:线性调节:用户可将屏幕前后移动,以优化"眼距"(eyerelief),无论是佩戴眼镜,还是面部轮廓较深的用户,都能获得最佳视觉距离。角度调节:屏幕可以上下倾斜,确保光学中心与用户视线精准对齐,减少视觉畸变,提升清晰度与舒适感。这些调节通过集成在显示框架与面部接口之间的机械连杆、滑轨与枢轴关节实现,结构精密且紧凑。用户无需摘下设备,即可实时微调,真正实现"边用边调"。多模态控制:从物理旋钮到语音手势为了让调节更直观,苹果设想了多种操作方式:物理控制:按钮、拨杆、旋钮、滑块、拨动开关;顶部或侧边的滚轮设计,便于单手操作;甚至支持语音指令或手势控制,实现完全无接触的调节。部分设计允许用户在佩戴状态下即时调整,另一些则支持为不同用户预设个性化配置,一键切换--这为设备在共享场景(如教室、会议室、零售体验店)中的使用打开了巨大想象空间。机械精工:锁定与同步,确保稳定与平衡为防止调节后屏幕晃动,专利描述了一套齿状滑轨与锁定机构,可在用户设定位置后牢固固定。该锁定机制可通过执行器(如电机或手动按钮)解除,实现平滑过渡。更关键的是,系统采用柔性传动轴设计,确保多个调节点同步运动,避免因单侧偏移导致设备失衡或压迫面部。这种工程级的细节,体现了苹果对结构完整性与用户体验的极致追求。不止于舒适:为"共享"与"包容性"而生这项技术的深远意义,不仅在于提升个体佩戴体验,更在于打破头显设备"一人一设"的局限。不同头型、脸型、视力需求的用户,都能快速获得专属的视觉对齐方案。这意味着:企业培训、教育演示、医疗协作等多用户场景下的设备流转成为可能;视力障碍或面部结构特殊人群的使用门槛被降低;设备的"个人化"程度大幅提升,真正实现"设备适应人",而非"人适应设备"。苹果的长期主义:专利先行,市场在后值得一提的是,本专利的发明人团队包括健康传感硬件工程经理SungKim及三位产品设计工程师,凸显其跨领域协作属性。而正如文中所言:苹果的每一项重大功能,几乎都始于专利布局。从iPhone的触控技术到AppleWatch的心率监测,皆是如此。目前尚无明确时间表表明该技术将何时落地,但结合供应链与行业预测,这极可能是第二代或第三代VisionPro的核心升级之一。当MetaQuest仍在追求性价比与大众化时,苹果正悄然构建一条以"精密工程"与"极致体验"为核心的高端护城河。AppleVisionPro与MetaQuest:调整功能对比功能AppleVisionPro(专利系统)MetaQuest(Quest2/Quest3)显示定位通过机械连杆实现动态线性和角度调整固定显示位置,IPD调整有限瞳距(IPD)可能集成到调整系统中以实现精确对齐手动瞳距调整(Quest2上有3个预设位置;Quest3上为连续)面部贴合自定义模块化光密封+动态显示对齐泡沫面部接口,定制有限执行器控制按钮、旋钮、滑块、滚轮、语音/手势输入显示定位无锁定;IPD手动调整锁定机制带锁定和解锁功能的齿形滑块通过执行器控制没有锁定机制;依赖于固定预设用户适应性为多用户环境设计,具有快速重新配置功能主要为单用户设计;不针对共享进行优化倾斜和深度控制角度倾斜和深度平移可实现最佳的眼睛对齐无倾斜或深度控制;固定显示角度

  • 当VR里的椰子水“穿越”到现实:普林斯顿用机器人打通虚拟与物理的“最后一米”

    2025-08-23

    你正坐在虚拟世界里的"月球表面",伸手从空中抓取一罐3D建模的椰子水,轻轻放在桌边。下一秒,这瓶虚拟饮料开始"物质化"--光影流转,轮廓凝实。当你伸手去拿时,它已真实握在手中,冰凉触感从指尖传来。这不是科幻电影,而是普林斯顿大学最新研究的实验现场。在这个名为"RealityPromises"(现实承诺)的项目中,研究人员MohamedKari与ParastooAbtahi构建了一套名为Skynet(与《终结者》同名,但无关联)的机器人控制系统,让一台佩戴VR头显的机器人,成为虚拟与现实之间的"物理信使"。一场"反向AR"实验:让现实追上虚拟传统AR/VR的逻辑是:将数字内容叠加到现实世界。而普林斯顿的实验,却走了一条"逆向路径":你在虚拟世界中"请求"一个物体→系统在现实世界中调度机器人取物→物体被精准送达你"预期"的物理位置→你伸手即得,沉浸感不被打破。其核心技术闭环如下:用户交互:佩戴Quest3的用户在虚拟空间中"拾取"一个虚拟饮料模型;空间锚定:用户将模型"放置"在现实桌面上的某个位置(通过MR透视对齐);机器人调度:Skynet系统接收到"虚拟投放"指令,规划路径;物理交付:机器人携带真实饮料,移动至目标位置,静默放置;感知融合:用户看到虚拟饮料"完成加载",伸手即触碰到真实物体。整个过程,如同虚拟世界向现实世界"下单",而机器人是那个"无声的快递员"。"隐身"机器人:让科技退居幕后为了让沉浸感不被破坏,研究团队做了两项关键设计:视觉抹除:机器人本身在VR画面中被"擦除",用户只看到物体凭空出现,仿佛"量子传送";角色重绘:机器人可被"皮肤化"为虚拟世界中的某个角色--比如一个机械臂、一个浮空球,甚至一只赛博猫,让它成为虚拟叙事的一部分,而非突兀的"外来者"。这不仅是技术实现,更是人机交互哲学的跃迁:技术不应强行闯入体验,而应无缝融入用户的认知预期。Skynet为何也要戴VR头显?最令人玩味的设计是:机器人自己也戴着VR头显。原因在于--它需要"看见"同一个虚拟空间。通过共享VR坐标系,机器人能精确理解:用户在虚拟世界中"放"饮料的位置;该位置对应现实空间的哪一点;周围是否有障碍物(虚拟标注);是否需要避让"虚拟家具"。这相当于为机器人提供了一套语义增强的地图,远超传统SLAM的几何感知能力。"现实承诺":重新定义VR的"操作系统逻辑"这项研究发表于ACMUIST(人机交互顶级会议),与另一项"代理(proxies)"研究共同指向一个未来:VR/MR头显不应只是"显示器",而应成为控制物理世界的"中枢"。"RealityPromises"这一概念,本质上是一种跨现实的用户界面协议:你"承诺"一个虚拟动作;系统"承诺"一个物理结果;机器人是兑现承诺的"执行单元"。它解决了长期困扰空间计算的核心问题:虚拟世界再丰富,也无法解渴。

  • 谷歌的智能眼镜困局:做生态,还是做产品?

    2025-08-23

    2025年,当Meta的Ray-Ban智能眼镜已能听歌、拍照、语音交互,苹果也在秘密推进其"AppleGlass"计划时,谷歌却仍在回答一个看似基础的问题:我们到底要不要自己做眼镜?在近日接受彭博社采访时,谷歌设备与服务高级副总裁里克·奥斯特洛(RickOsterloh)坦言:公司是否重新推出自有品牌智能眼镜,目前仍是"待定(TBD)"。这句模棱两可的回应,暴露了谷歌在可穿戴设备战略上的深层摇摆--是做安卓之于手机那样的"技术赋能者",还是做Pixel之于手机那样的"硬件定义者"?从GoogleGlass到Gemini:一次"退而求其次"的回归2013年,GoogleGlass横空出世,惊艳世界,却因隐私争议、高昂定价与使用场景模糊而折戟。十年后,谷歌卷土重来,但策略已彻底转变。这一次,它不再"孤军奋战",而是选择联姻时尚与眼镜巨头:与韩国潮流品牌GentleMonster合作推出Gemini智能眼镜;联手美国平价眼镜连锁WarbyParker开发日常款;未来还将与奢侈品集团KeringEyewear(旗下有Gucci、SaintLaurent等)推出高端线;甚至入股GentleMonster4%,强化绑定。与此同时,谷歌提供核心软件能力:GeminiAI语音助手、实时翻译、音频播放与情境感知。硬件,则交给"更懂眼镜"的合作伙伴。这是一条典型的"轻资产、快落地"路径--避开工业设计、供应链与品牌教育的重投入,借力现有渠道与用户信任,快速切入市场。AR显示的"犹抱琵琶":HUD真的会来吗?真正令人期待的,是谷歌在I/O大会上展示的那款三星代工的AR原型眼镜--配备单眼光学显示(HUD),可实现信息叠加、实时字幕与导航提示。这几乎就是GoogleGlassEnterpriseEdition的消费化升级版。但它是否会出现在首批Gemini眼镜中?谷歌并未承诺。目前所有官宣的Gemini眼镜,均无显示功能,仅支持音频与语音交互。换言之,它们更像是"带AI的智能太阳镜",而非"AR眼镜"。这背后,是技术与体验的双重权衡:技术瓶颈:微型化、低功耗、高亮度的显示模组尚未成熟;佩戴体验:增加显示模组意味着更重、更耗电、更"不像普通眼镜";隐私与社交接受度:带摄像头+显示屏的眼镜,更容易引发"被监视"焦虑。相比之下,Meta的Ray-Ban系列已用三年时间教育市场,证明"无显示+强音频+轻AI"也能形成用户习惯。谷歌选择跟进,实为稳妥之举。"技术供应商"模式:谷歌的野心与风险谷歌当前的策略,本质上是在复制"安卓手机"的成功路径:高通、三星、小米造手机;谷歌提供GMS与AI服务,掌控生态入口。但智能眼镜不同:手机是"主动使用设备",用户每天解锁数十次;眼镜是"被动穿戴设备",用户期望它"无感存在"。如果谷歌只提供软件,不参与硬件定义,它将面临两大风险:体验割裂:AI功能受限于合作伙伴的麦克风、电池、算力设计,难实现深度优化;品牌弱化:用户记住的是GentleMonster,而非"谷歌眼镜"。当年GoogleGlass的失败,部分原因正是"硬件太差,拖累了软件"。如今反其道而行,是否又会陷入"软件太强,硬件跟不上"的新困局?结语:谷歌在等一个"iPhone时刻"奥斯特洛说:"我们认为,现在是智能眼镜真正突破并变得有用的时候了。"但谷歌的"现在",或许仍不是全面AR眼镜的"现在",而是AI音频眼镜的"前夜"。它选择先以"无显示"产品试水市场,积累用户行为数据、优化AI交互逻辑,同时等待显示、电池与光学技术的"临界点"到来。当那一天来临--当AR显示足够轻巧、足够自然、足够安全--谷歌或许才会真正推出它的"Glass2.0",完成从"技术赋能"到"产品定义"的跨越。在此之前,它宁愿慢一点,稳一点。毕竟,它已经错过了一次定义未来的机会,不想再错过第二次。

  • Lynx开源6DoF追踪系统:一场“迟到者”的技术反攻

    2025-08-23

    2025年,当Meta、Apple、pico早已在XR赛道上划定疆域,法国混合现实公司Lynx却以一种意想不到的方式重新进入战场--它没有发布新硬件,而是开源了一套完整的6DoF空间定位系统。这套名为LynxSLAM的系统,基于行业公认的ORB-SLAM3算法,专为搭载高通芯片的AndroidXR头显打造。它能在SnapdragonXR2Gen1等主流芯片上,以90FPS的频率处理640×400分辨率的摄像头输入,输出精准的六自由度位姿数据--性能对标商用方案,但完全免费且开放源代码。更关键的是:它适用于任何使用高通芯片的Android头显,包括Quest2、Pico4,甚至尚未面世的"新玩家"。从"错过首发"到"定义底层":一个迟到者的战略迂回Lynx的故事,曾是XR行业"起个大早,赶个晚集"的典型。2020年,它发布LynxR1--全球首款宣称支持全彩透视的独立式MR头显,比QuestPro更早亮相。若如期在2022年发货,它本可成为消费级MR的"定义者"。然而,供应链、软件优化与交付问题接踵而至,等到大多数支持者终于收到设备时,Quest3与AppleVisionPro早已占领市场高地。但Lynx从未放弃其核心理念:开放。创始人斯坦·拉罗克(StanLarroque)直言:"我们相信,XR的未来不应被少数巨头的闭源系统垄断。真正的创新,发生在边缘,发生在开发者手中。"此次开源,正是这一理念的集中体现。为何开源SLAM?因为"算法不缺,缺的是落地"许多人误以为,SLAM(同步定位与建图)技术仍是"高门槛黑箱"。但Lynx指出:开源SLAM算法本身早已成熟--ORB-SLAM3、VINS-Mono等方案在过去8年中持续进化,精度与鲁棒性足以媲美商用系统。真正的瓶颈在于:产品化(Productization)。"问题不在于算法好不好,而在于如何把它集成进运行时、如何处理边界情况、如何实现系统崩溃后的快速恢复。"--Lynx创始人StanLarroque这正是Lynx的贡献所在:他们不是简单地"放代码",而是将ORB-SLAM3深度适配到AndroidXR生态,充分利用高通HexagonDSP(数字信号处理器)的硬件加速能力,大幅降低CPU负载,确保系统在低功耗设备上也能稳定运行。这种"从算法到可用系统"的工程化封装,才是开源价值的核心。为何用DSP?揭秘XR头显的"隐形大脑"所有主流独立XR头显都依赖专用协处理器来处理传感器数据。高通的HexagonDSP正是为此而生--它专精于图像与传感器信号的实时处理,能以极低功耗完成特征提取、光流计算等SLAM关键任务。Lynx的开源方案主动调用DSP资源,意味着它不是"纸上谈兵"的学术项目,而是具备量产级优化能力的工业级实现。对于小型硬件厂商或独立开发者而言,这相当于省去了数月的底层调试与性能优化工作。GPLv3许可:一场"强制开放"的生态博弈Lynx选择GPLv3许可证发布该系统,意味着任何使用该代码的产品,必须同样开源其修改版本。这是一种"传染性"许可,旨在防止大公司"拿走即闭源"。这不仅是技术共享,更是一次意识形态的宣战:在Meta、Apple、Pico纷纷构建封闭生态的今天,Lynx试图用开源之力,为XR世界保留一条"开放通道"。谁将从中受益?新兴硬件厂商:无需自研SLAM,可快速推出具备6DoF能力的头显;科研与教育机构:获得高性能、可审计的SLAM基准系统;定制化MR应用开发者:在工业、医疗等对数据安全要求高的场景中,使用完全透明的追踪方案;XR开源社区:推动OpenXR、Monado等开放生态的进一步成熟。结语:当"失败者"开始定义规则LynxR1或许未能成为市场赢家,但它的技术积累与开放精神,正在以另一种方式影响行业。这一次,它不再试图"抢先发布",而是选择构建底层基础设施--就像当年Linux之于操作系统,Blender之于3D软件。在XR逐渐走向"平台垄断"的2025年,Lynx的开源之举,或许无法立刻改变格局,但它留下了一个火种:只要核心系统保持开放,创新就永远不会被完全封锁。未来某款"颠覆性"的XR设备,其空间追踪系统,可能就源自今天Lynx发布的这一行行代码。

  • 《Hauntify》在Quest 3上实现“空间自由”:一场由开源技术驱动的MR体验升级

    2025-08-21

    一款售价仅7美元的VR恐怖游戏《Hauntify》,正悄然成为MetaQuest3混合现实(MR)体验进化的关键样本。近日,该游戏正式接入开发者JulianTriveri开发的连续场景建模技术(continuousscenemeshing),彻底摆脱了Meta官方房间扫描系统的桎梏,实现了跨房间、跨楼层甚至室内外无缝穿梭的沉浸式玩法。这一更新看似微小,实则标志着Quest平台MR体验的一次重要跃迁--从"静态扫描+割裂空间"迈向"动态感知+连续世界"。告别繁琐扫描:让MR真正"随开随玩"自Quest3发布以来,《Hauntify》虽支持多房间探索,但依赖Meta官方的"混合现实设置"流程:用户需逐一扫描每个房间,系统再尝试拼接。这一过程耗时冗长,且极易因家具移动或光线变化导致失败,不少玩家因此直接退款放弃。而Triveri通过深度API(DepthAPI)实现的连续场景建模技术,彻底绕开了这一瓶颈。它能实时感知环境变化--家具的增减、门的开合、物品的移动--甚至在游戏运行中动态更新空间网格,无需预先扫描,真正实现了"即戴即玩"。更关键的是,Triveri已将该技术开源发布于GitHub,供所有开发者免费使用。《Hauntify》开发者在此基础上进一步优化,加入了网格数据的保存与加载功能,确保玩家每次进入时空间结构一致,同时避免因重复重建导致的性能波动。空间交互的质变:关门躲鬼,MR才有了"真实感"技术升级带来的不仅是便利,更是玩法的重构。如今,《Hauntify》玩家可在大宅中自由穿行,上下楼梯,甚至走出户外。最富戏剧性的变化是:你可以关上门来躲避鬼魂--这一简单动作,因建立在精确的空间理解之上,极大增强了MR的临场感与策略性。这种体验此前仅在AppleVisionPro版本中实现,依赖其LiDAR传感器生成的连续空间网格。如今,Quest3通过算法创新,在无专用激光雷达的硬件条件下,逼近了类似的交互水准。免费开源vs商业SDK:开发者的路径选择值得注意的是,连续场景建模并非只有Triveri这一条路径。Niantic近期推出的SpatialSDK也已登陆Quest平台,利用透视摄像头与自研视觉模型实现更远距离的空间重建,但其采用按月活跃用户收费的模式,成本约为0.1美元/人/月。对于小型独立开发者而言,Triveri的免费开源方案无疑更具吸引力。这也反映出当前MR生态的一个趋势:底层技术的民主化正由社区驱动。一个开源代码的释放,可能迅速催生多款体验升级的应用,加速整个平台的成熟。结语:小应用,大启示《Hauntify》的更新或许不会引发headlines,但它清晰地指向一个未来:混合现实的真正潜力,不在于炫技式的视觉呈现,而在于对物理空间的无缝理解与自然交互。当玩家能下意识地"关门躲鬼",MR才真正从"虚拟叠加"走向"空间融合"。随着更多开发者接入此类技术,Quest3的MR体验或将迎来一轮由小应用引领的质变。而2025年的万圣节,或许正是《Hauntify》作为"全民MRdemo"的高光时刻。

  • 共 126 条1/812345>

    VR52

    VR52网成立于2015年,平台提供VR头显、AR眼镜、配件外设、厂商、测评、行业资讯、游戏与应用、展会活动等。

    热门VR眼镜

    标签

    头显眼镜对比
    清除所有