• XR 生态战火重燃:Meta 与 Google 分庭抗礼,两大平台争夺空间计算未来

    2025-12-13

    随着虚拟现实、增强现实及混合现实技术的融合趋势日益明显,XR生态系统正迎来新一轮竞争高潮。一边是Meta推出的SpatialSDK/HorizonOS,旨在简化Quest设备上的开发流程;另一边则是由Google联合三星和高通共同打造的AndroidXROS,力图成为开放标准的空间计算操作系统。两者虽都致力于推动XR开发的普及化,但其背后的产品理念却截然不同。MetaSpatialSDK/HorizonOS:简化引擎依赖,加速原生开发Meta的SpatialSDK允许开发者使用Android原生工具(如Kotlin、AndroidStudio及相关库)直接为Quest系列设备构建XR应用,无需依赖重型游戏引擎。核心功能:空间锚点:在物理世界中固定虚拟对象;共享空间:支持多人协作与社交互动;透视相机:将现实环境无缝融入虚拟体验;HorizonOSUI组件:提供统一的用户界面设计元素;MR实用套件:辅助开发MR场景下的交互逻辑。手势识别:支持捏合、滑动、点击等基础手势,以及完整的手部追踪能力。AI功能:上下文感知UI:基于环境理解自动调整界面布局;AI驱动的空间认知:提升场景理解和物体识别精度;自适应MR混合:根据不同光照条件动态优化虚实叠加效果。最佳适用人群:适用于已深度嵌入Meta生态圈的开发者,特别是那些希望摆脱传统游戏引擎束缚,探索轻量化XR工作流的专业人士。开发者资源链接:MetaSpatialSDK示例代码(GitHub)MetaHorizonOS开发者资源AndroidXROS:跨平台兼容,拥抱开放生态由Google主导、三星与高通共同参与的AndroidXROS是三星GalaxyXR头显及ProjectAuraAI眼镜背后的动力源泉,定位为一个面向多终端的开放式空间计算平台。核心功能:跨平台XR开发:确保应用能在不同硬件上流畅运行;SnapdragonSpaces集成:利用高通芯片组的强大算力;沉浸式生产力与娱乐:覆盖从办公到游戏的全方位应用场景。手势识别:提供捏合、抓取、滑动等复杂手势支持,并兼容触控板输入及手柄操作。AI功能:AI眼镜(ProjectAura):集成语音+手势的多模态输入方式;AI驱动的空间计算:通过智能算法优化用户体验。最佳适用人群:适合追求开放架构、企业级XR解决方案及AI增强体验的开发者群体。开发者资源链接:AndroidXR官方开发者页面AndroidXRSDK开发者预览博客FramesixtyAndroidXR开发指南这场XR平台之争,不仅是技术层面的竞争,更是对未来人机交互模式话语权的争夺。无论是Meta的封闭生态还是Google的开放联盟,都将深刻影响下一代空间计算产品的走向与发展路径。对于开发者而言,选择哪条道路,或许意味着不同的创新机遇与市场前景。特征区域MetaSpatialSDK/HorizonOSAndroidXR操作系统核心能力空间锚点、共享空间、透视、地平线用户界面跨平台XR、骁龙空间、生产力、游戏手势捏合、滑动、点击、全手追踪捏合、抓取、滑动、触控板、混合输入人工智能功能情境感知用户界面、AI空间锚点、混合现实实用工具包人工智能眼镜、多模态输入、人工智能驱动的空间计算生态系统契合度MetaQuest设备,HorizonOS三星GalaxyXR、ProjectAura、开放式 AndroidXR

  • STYLY 推出面向 LBE 开发的开源项目,支持多人 XR 内容的创建和开发。

    2025-12-03

    STYLY近日宣布,面向创意机构与制作公司,正式启动一项基于Unity的开源项目,旨在支持Location-BasedEntertainment(LBE,即"基于位置的沉浸式娱乐")内容的开发。该项目的核心目标,是通过降低XR沉浸式内容开发中的技术门槛,让创作者能将更多精力聚焦于创意本身,从而推动高质量LBE体验生态的形成。为此,STYLY将提供一套专为多设备同步场景设计的通信功能模块。在典型的LBE场景中,往往需要数十台头显设备同时运行并保持高度同步。新推出的解决方案可支持最多50台XR设备轻量、高速地协同工作,并兼容主流厂商的头戴式显示器。无论是集成到现有项目,还是用于全新内容开发,流程都更为简便高效。开源授权,商用无忧此次发布的SDK套件采用ApacheLicense2.0或MIT许可证,无论企业或个人、商用或非商用用途,均可免费使用。STYLY还计划面向商场、主题乐园等商业场所的LBE运营方,推出基于该SDK优化的专用运营管理软件服务,进一步完善从开发到落地的全链路支持。值得注意的是,该开源项目与STYLY现有的无代码XR创作与分发平台互不兼容--所提供的SDK无法用于向当前上线的STYLY应用发布内容。STYLY此前已成功推出如VR体验《THEMOONCRUISE》(模拟未来太空旅行)等代表性LBE项目。依托这些一线实践积累,公司希望借由此次开源举措,加速XR技术在实体娱乐场景中的普及,并为下一代沉浸式娱乐形态提供基础设施支持。开源仓库:https://github.com/styly-dev/

  • 腾讯全球发布Hunyuan 3D引擎,AI重构3D内容生产链

    2025-11-27

    本周,腾讯正式面向全球推出其Hunyuan3D创作引擎--一款由人工智能驱动的3D内容生成平台,旨在为创作者与企业大幅简化高质量3D资产的生产流程。该平台支持用户通过文本描述、图像或手绘草图直接生成3D模型,相较传统建模方式显著缩短制作周期。腾讯表示,此举意在降低3D内容创作门槛,推动游戏、电商、影视特效等多个行业的数字内容生产效率升级。API开放接入,赋能全球企业工作流目前,Hunyuan3DModelAPI已通过腾讯云向全球企业开放。开发者可将这一3D生成能力无缝集成至自身业务系统中。官方指出,该API适用于游戏开发、电子商务商品展示、电影特效、广告创意、社交媒体内容生成以及3D打印等多个应用场景。为鼓励早期采用,普通用户每日可享受20次免费生成额度;而通过腾讯云接入的企业用户,则将获得200点免费积分用于3D资产生成。开源社区反响热烈,版本持续迭代自2024年11月首次开源以来,Hunyuan3D模型已在AI社区平台HuggingFace上累计获得超300万次下载。该系列已历经多次迭代,最新发布的Hunyuan3D3.0聚焦于高保真物体资产的生成质量。此外,腾讯还推出了专用子模型,例如Hunyuan3DWorld,专为构建大规模交互式虚拟环境设计,适用于游戏、VR及数字内容生态。据腾讯透露,目前已有超过150家企业通过腾讯云接入Hunyuan3D模型,合作方包括Unity中国、BambuLab,以及国内最大的AI内容创作平台Liblib。

  • WebAR先驱平台8th Wall宣布逐步关停服务

    2025-11-27

    曾为WebAR开发树立标杆的平台8thWall日前宣布将逐步终止服务。该平台自2018年上线以来,凭借其基于浏览器的交互式XR应用开发能力,支持在移动端、桌面端及XR设备上无缝部署,成为行业广泛应用的工具。8thWall最初由同名初创公司于2016年创立,并于2022年被知名AR游戏公司Niantic(现更名为NianticSpatial)收购。即便在并购之后,平台仍持续更新,并与Niantic推出的LightshipVPS等空间定位技术深度集成,维持了较强的技术生命力。服务关停时间表明确,用户需提前规划迁移根据官方公告,8thWall的服务将分阶段关闭。2026年2月28日起,平台将停止所有访问权限,届时用户将无法创建新账户、登录系统,也无法新建或编辑项目,更不能导出资产和项目数据。不过,在2026年2月28日至2027年2月28日这一整年间,已发布或托管的项目仍可正常访问和运行,为开发者保留了一年的缓冲期以安排替代方案。最终,2027年2月28日之后,平台的托管服务将彻底终止,所有剩余项目数据将依据数据保留政策予以删除。官方表示,将在此期间提供必要的数据导出窗口,建议用户尽早备份关键内容。开源化尝试:为生态留下火种值得注意的是,8thWall团队正积极推进平台核心组件的开源工作,旨在通过开放代码的方式,保障开发者社区在服务终止后仍能延续部分功能。此举也被视为对WebAR生态的一种责任性收尾,力求实现透明、有序的技术过渡。

  • World Labs × HTC 推出 AI 世界构建器 Marble:零门槛生成虚拟制片场景

    2025-11-27

    WorldLabs与HTC联合发布了面向虚拟制片平台VIVEMars的全新AI工具--AI世界构建器Marble。该工具主打"极简创作",用户仅需输入一张图片或一段简短文字,即可在数分钟内自动生成可用于实拍合成的高保真虚拟场景,大幅降低虚拟制片的技术门槛。空间智能驱动:从文本/图像到3D场景的一键生成WorldLabs是一家专注于"空间智能"(SpatialIntelligence)的初创企业,致力于构建能理解并生成三维世界的基座模型。其首款产品Marble正是这一理念的落地成果:通过名为"AIGaussianSplatting"的生成技术,系统可直接从单张图像或自然语言描述中重建出细节丰富的3D虚拟环境,无需传统建模、UV展开或复杂光照设置等繁琐流程。相比依赖专业3D软件或游戏引擎的工作流,Marble将整个场景构建过程压缩至几分钟内完成,且输出格式轻量,便于实时渲染调用。无缝接入VIVEMarsNova,实现即插即用的虚拟制片HTC的VIVEMars是一套基于VIVEVR硬件生态打造的高性价比虚拟制片系统,利用现有VIVE追踪设备实现精准相机定位。新推出的配套软件VIVEMarsNova已原生支持Marble输出的轻量化PLY格式数据,并与VIVEMarsCamTrack相机追踪模块深度集成。用户只需将Marble生成的场景导入Nova,连接普通摄像机,即可在绿幕前实时合成实拍画面与AI生成的虚拟背景。整个流程无需UnrealEngine、编程经验或高级3D工具知识,真正实现"所想即所得"的影视级合成效果。这一整合方案显著缩短了从创意到成片的制作链路,使独立创作者、小型工作室甚至非技术背景的内容生产者也能快速拓展视觉表达边界,在短视频、广告、直播乃至教育内容等领域释放新的创作潜力。

  • Godot 引擎加码 OpenXR:开源游戏引擎正成为 XR 开发新宠

    2025-11-25

    作为一款广受欢迎的开源游戏引擎,Godot近年来持续强化其在XR领域的支持能力。早在数年前,Godot就已集成基础的OpenXR支持,使开发者能够轻松将应用部署到多种XR头显设备上。如今,随着最新版本更新,Godot进一步拓展了OpenXR功能,意图吸引更多专注于VR与AR开发的团队。OpenXR是由KhronosGroup主导制定的一项开放、免版税的标准,旨在为VR/AR应用开发提供统一接口。目前主流XR平台普遍支持该标准--唯独苹果例外,其VisionPro采用自研API。渲染模型扩展落地,沉浸感再升级在近期发布的Godot4.5版本中,引擎正式引入了OpenXR渲染模型扩展。这一功能使得系统能够准确识别并渲染特定平台的硬件模型,例如手柄外观。对于XR应用而言,这种细节对营造真实沉浸感至关重要。据Godot首席XR维护者BastiaanOlij在博客中透露,更大的动作已在路上--即将随Godot4.6到来。在当前的开发者预览版(Godot4.6dev1)中,引擎已初步支持OpenXRSpatialEntities,涵盖空间锚点、平面检测和标记追踪等MR核心工具。这意味着开发者可以构建具备空间感知能力的持久化MR体验。性能与兼容性双提升Godot4.6同时新增对OpenXR1.1的支持,其中包含用于提升重投影质量的帧合成技术。此外,引擎还在推进QuadView渲染优化,以在用户注视焦点区域实现更高画质。另一项重大改进面向Android平台:开发者现在可打包一个通用APK,即可兼容所有支持OpenXR的XR设备,大幅简化分发流程。展望未来,Godot团队计划推进身体追踪标准化、扩展空间实体功能、实现多应用协同支持,并优化通用控制器的工作流。Olij特别指出,Khronos对Godot的资金与技术支持,确保了OpenXR等开放标准能够直接吸纳一线开发者的反馈,持续演进。

  • Meta 新推 SAM 3D Objects:数秒内将现实物体带入VR

    2025-11-25

    Meta最新发布的SAM3DObjects模型为从现实世界中快速生成高质量3D资产设定了新的标准。这项技术使得仅需一张图片,即可在数秒内将现实中的物体转化为虚拟世界中的3D对象,极大地简化了3D内容创作的流程。传统方法vsAI加速长久以来,利用摄影测量法(photogrammetry)通过拍摄数十张不同角度的照片来生成3D模型是主流做法。例如,EpicGames的RealityScan需要约15到45分钟的云端处理时间,而苹果公司则为其iPhonePro系列提供了大约需要5分钟的设备端物体捕捉API(ObjectCaptureAPI)。然而,随着AI技术的进步,近年来出现了可以从单张图像中迅速生成3D资产的先进模型。尽管这些模型的质量起初不如传统的摄影测量法,但随着每一次新模型的发布,其质量也在稳步提升,反映了AI领域整体上的快速发展。SAM3DObjects:下一代3D生成模型最近,Meta发布了SAM3DObjects,这是目前最先进的从单一图像生成3D资产的模型。用户可以通过访问Meta的AIDemos页面,在网页浏览器中免费体验这一功能。只需上传一张图片,并选择想要转换成3D模型的对象,几秒钟后就能看到该对象的3D视图,并可以使用鼠标或手指进行旋转查看。值得注意的是,Meta的演示网站并不完全适配移动屏幕,因此推荐使用PC、笔记本电脑、平板电脑或VR头显进行体验。此外,SAM3DObjects目前仅适用于无生命物体,不支持人物或动物的3D建模。虽然在线演示不允许下载生成的3D模型,但SAM3DObjects是开源项目,可在GitHub和HuggingFace上获取。这意味着开发者可以在提供GPU支持的云计算平台上托管此模型,进而实现类似于EchoTheReality演示的应用,但具有更高品质的输出效果--即直接从现实中"拉取"物体进入VR环境。应用前景与未来展望社交VR平台可以借此让用户在几秒钟内展示他们房间里的物品,或者用自己制作的真实物品装饰虚拟家园。虽然Meta尚未宣布计划将此功能添加到HorizonWorlds中,但这似乎是一个自然的发展方向,能够很好地补充Meta刚刚推出的Hyperscape世界。

  • Meta 发布 WorldGen:文本生成完整3D世界,但 Horizon Worlds 还用不上

    2025-11-25

    在AI生成3D内容的竞赛中,Meta最新推出的WorldGen系统再次将行业门槛推高--它能仅凭一段文字提示,自动生成几何一致、视觉丰富、可交互导航的三角网格。然而,Meta却坦言:这项技术尚未准备好集成到其社交VR平台HorizonWorlds中。从AssetGen到WorldGen:Meta的AI造世之路早在2025年5月,Meta就预告将在HorizonWorlds创作工具中引入"AI自动生成完整3D世界"的能力,并发布了相关模型AssetGen2.0。6月,该功能被正式命名为"EnvironmentGeneration"(环境生成),并展示了示例场景,称将"很快上线"。结果,8月上线的EnvironmentGeneration仅能生成一种特定风格的岛屿,与"通用世界生成"的愿景相去甚远。如今,Meta在一篇技术论文中正式披露了其更强大的下一代系统--WorldGen,这才是真正面向"任意文本生成任意世界"的终极方案。WorldGen是什么?不是GaussianSplat,而是真·游戏级3D与近期热门的WorldLabs的Marble(基于GaussianSplatting)或GoogleDeepMind的Genie3(生成交互式视频流)不同,WorldGen输出的是标准的三角网格(trimesh):兼容Unity、Unreal等传统游戏引擎;包含完整的导航网格(navmesh),支持角色碰撞检测与NPC自主导航;场景由真实3D资产构成,而非视觉近似体。Meta将其描述为:"一个端到端的先进系统,通过单一文本提示生成可交互、可导航的3D世界,服务于游戏、仿真与沉浸式社交环境。"四步生成流程:从文本到可玩世界据Meta披露,WorldGen的生成流程分为四大阶段:(1)规划阶段(Planning)程序化生成基础布局(blockout)提取导航网格(navmesh)生成参考图像指导后续重建(2)重建阶段(Reconstruction)图像到3D基础模型生成基于navmesh构建完整场景结构初步纹理生成(3)分解阶段(Decomposition)使用加速版AutoPartGen提取场景部件(如门、窗、家具)对部件数据进行清洗与结构化(4)精修阶段(Refinement)图像增强网格细节优化高质量纹理贴图生成整个过程融合了程序化生成、扩散模型、场景理解与几何优化,形成一条完整的AI世界生产管线。为何还不上线?两大瓶颈待解尽管技术惊艳,Meta明确表示WorldGen暂不会集成到当前的HorizonWorldsDesktopEditor,也不会作为即将推出的HorizonStudio的首发功能。原因有二:空间尺寸受限:目前仅能生成50×50米的区域,对于开放世界而言太小;生成速度慢:从文本到完整世界仍需较长时间,无法满足创作者"秒级迭代"需求。Meta正在全力优化这两点,目标是在2026年推出大幅升级版,以兑现其在Connect2025大会上展示的HorizonStudio愿景--一个拥有AI助手的全能创作平台,可即时生成:完整世界定制化资产具备行为逻辑的NPC特定玩法机制⚠️但当时演示的内容,可能更多是"概念原型",而非已部署的技术。HorizonWorlds创作现状:DesktopEditor已支持部分AI功能目前,创作者可通过HorizonWorldsDesktopEditor进行flatscreen开发:导入3D模型、贴图、音频;使用TypeScript编写游戏逻辑;在美国、英国、加拿大、欧盟、澳大利亚、新西兰等地区,还可调用AI生成:3D网格资产纹理与天空盒音效与环境音TypeScript代码片段但完整世界生成,仍需等待WorldGen成熟。展望随着AI3D生成技术指数级演进,Meta很可能在2026年实现其"人人都是世界建筑师"的承诺。届时,HorizonStudio或将成为首个真正意义上的AI驱动元宇宙创作平台--你只需说:"创建一个赛博朋克夜市,有霓虹招牌、雨天街道、可互动的机器人摊贩",系统便在几分钟内交付一个可多人游玩的完整VR世界。而WorldGen,正是通往这一未来的基石。

  • World Labs 发布 Marble:一张图或一句话,几分钟生成可交互3D场景

    2025-11-25

    由人工智能先驱李飞飞(Fei-FeiLi)于去年创立的初创公司WorldLabs,近日推出其首款产品--Marble。这款生成式AI模型能将单张图片、一段文字,甚至短视频,在短短几分钟内转化为可在WebXR中直接浏览的体素化3D场景,为VR/AR内容创作带来前所未有的效率革命。从ImageNet到"世界模型":李飞飞的新征程作为2010年代推动计算机视觉爆发的关键人物,李飞飞因创建ImageNet数据集而广为人知--她敏锐地意识到:高质量标注数据的缺失,才是AI进步的最大瓶颈。如今,她将这一理念延伸至三维空间,带领WorldLabs打造所谓"首类生成式多模态世界模型"(first-in-classgenerativemultimodalworldmodel)。Marble的核心技术基于近年主流的3DGaussianSplatting(高斯泼溅)技术--通过在三维空间中排布成千上万个半透明彩色"高斯点",实现实时、任意视角的逼真渲染。但与其他系统相比,Marble在输入灵活性与生成速度上实现了显著突破。单图秒变3D?Marble的能力边界免费模式:仅需一张图片或一段文本提示,几分钟内即可生成可浏览的3D场景;付费订阅(20美元/月):支持多图输入、短视频、甚至粗略3D结构,并通过名为Chisel的编辑工具进行深度创作。Chisel允许用户像使用游戏引擎一样,在场景中放置简单几何体(如立方体、球体),再用自然语言指令(如"把这里变成热带雨林")将其转化为细节丰富的体素环境。更关键的是,付费用户还能:对生成场景进行交互式编辑与扩展;合并多个世界构建复杂空间;导出为传统3D网格(mesh),用于Unity、Unreal等引擎开发(转换需数小时)。所有生成内容均可通过WebXR在Quest3、AppleVisionPro等设备的浏览器中直接查看,无需安装专用应用。实测体验:快,但仍有局限在实际测试中(例如将一张2014年SteamDevDaysVR会场照片输入Marble),生成场景的质量明显低于Meta的HorizonHyperscape或VarjoTeleport,大致介于NianticScaniverse之上、专业扫描之下。主要问题在于:画面中心区域(对应原图内容)细节尚可;边缘及背面区域则依赖AI"脑补",出现典型高斯泼溅的模糊、扭曲或结构失真;若仅用单图输入,相机视野外的内容纯属幻觉,与真实环境可能大相径庭。📌因此,若追求高保真重建,仍需提供多角度图像或视频。为何Marble依然值得期待?尽管存在画质限制,Marble的真正价值在于"快速原型+语义驱动创作":游戏开发者可用它几分钟内搭建关卡雏形;教育者能将历史照片转为可探索的3D课堂;社交VR创作者可通过自然语言"描述梦境",即时生成虚拟聚会空间。结合Chisel的几何可控性与自然语言接口,Marble正在模糊"内容消费者"与"世界建造者"之间的界限。使用须知官网地址:marble.worldlabs.ai免费账户生成的场景默认公开;私有场景、高级编辑与导出功能需订阅20美元/月计划。

  • SAM 3D:Meta 重塑视觉计算——一张照片生成3D世界

    2025-11-21

    在空间计算浪潮席卷全球之际,Meta正式推出SegmentAnythingModel3D(SAM3D),将传统的2D图像理解能力推向全新维度。这项突破性技术仅需单张普通照片,即可精准重建出完整的3D物体、场景甚至人体模型,让每一帧手机快照或网络图片瞬间转化为可交互、可部署的沉浸式数字资产。从平面到空间:打破屏幕的牢笼过去数十年,我们的数字生活被禁锢在二维屏幕上--点击、滑动、观看,却始终与物理世界隔绝。SAM3D正在瓦解这一边界:一张椅子的照片不再只是静态图像,而是一个可360°旋转、自由缩放、导入虚拟房间的真实3D对象;一个人物快照也能变成可用于社交Avatar或全息通信的立体化身。Meta已率先将该技术落地于FacebookMarketplace的"ViewinRoom"功能。用户不再需要凭空想象沙发尺寸是否合适,而是直接将其3D模型"放置"在自家客厅中,从任意角度查看搭配效果--电商体验由此迈入空间化时代。直面真实世界的复杂性传统3D重建常因遮挡、杂乱背景或多视角缺失而失败。SAM3D却能从容应对这些现实挑战:即使物体部分被遮挡,系统仍可推断完整结构;在凌乱环境中精准分离目标主体;支持非正面、低光照等"不完美"输入。其背后依托超大规模预训练模型与人在回路(human-in-the-loop)反馈机制,在保证高精度的同时实现接近实时的推理速度,为消费级应用和创意工作流提供坚实支撑。赋能XR、机器人与下一代交互SAM3D的意义远超图像处理本身,它正在催生多个领域的范式变革:AR/VR内容创作民主化:无需建模技能,拍照即得3D资产;虚拟零售革命:商品数字化成本骤降,沉浸式购物成为标配;空间通信新形态:未来视频通话或将传送3D化身而非2D画面;机器人环境理解:帮助机械臂更准确识别与操作现实物体。开源驱动生态,加速3D普及Meta延续其开放策略,同步开源了SAM3D的模型权重、评估基准与开发者工具包,并上线了直观易用的在线Playground。全球开发者、设计师、教育者均可立即上手实验,共同推动从"2D屏幕时代"向"动态3D世界"的主流迁移。SAM3D如何改变你的数字生活?一键生成3D:手机照片秒变精细3D模型零门槛创作:普通人也能制作XR内容重塑电商体验:家具、服饰"试穿试摆"更真实赋能硬件生态:为XR眼镜、MR设备提供实时3D引擎激发全球创新:通过开源持续推动技术演进在Playground中测试Sam3Dhttps://aidemos.meta.com/segment-anything/gallery

  • 免费工具PimaxMagic4All为大量SteamVR游戏添加眼动追踪注视渲染

    2025-11-19

    一款名为PimaxMagic4All的免费工具现已推出,专为配备现代NvidiaGPU的WindowsPC设计,能够为众多SteamVR游戏添加眼动追踪注视渲染(Eye-TrackedFoveatedRendering,ETFR)。该工具重现了Pimax在其PimaxPlay软件中提供的功能,因此如果你已经拥有Pimax头显,则无需使用此工具。支持设备广泛,涵盖主流高端VR头显PimaxMagic4All兼容任何通过低级公共API公开眼动追踪数据的SteamVR兼容头显,或通过第三方软件实现此功能的设备,包括但不限于:MetaQuestPro(需借助SteamLink或VirtualDesktop)PlayStationVR2(需PSVR2Toolkit)SamsungGalaxyXR(需VirtualDesktop)PlayForDreamMR(需VirtualDesktop)VarjoAero什么是注视渲染?固定注视渲染(FFR):图像中心区域以更高分辨率渲染,而周边区域则降低分辨率。眼动追踪注视渲染(ETFR):根据眼动追踪传感器确定当前视线焦点,并仅对该区域进行高分辨率渲染。这两种技术均能显著提升VR性能表现,既可用于提高高负载场景下的帧率流畅度,也可在已达到目标帧率的情况下进一步提升最高分辨率。与FFR相比,ETFR理论上不会产生明显的边缘像素化现象,前提是眼动追踪系统的延迟足够低。开发者MatthieuBucchianeri表示,该工具"可能"也适用于Valve的SteamFrame,尤其是在从安装NvidiaGPU的WindowsPC串流时。此外,理论上经过适当开发调整后,它也可能支持HTCViveProEye和ViveFocusVision。开发者背景及工具特点Bucchianeri是一位经验丰富的开发者,曾参与过PS4、初代PlayStationVR、SpaceXFalcon9和Dragon项目以及微软HoloLens和WindowsMR的研发工作。目前他在微软Xbox团队贡献于OpenXR,并利用业余时间开发了多个开源项目,如OpenXRToolkit、VDXR(VirtualDesktop的OpenXR运行时)以及最新推出的Oasis--这一原生SteamVR驱动程序成功复活了WindowsMR头显。PimaxMagic4All提供了一个简洁的图形界面,内置三种注视渲染模式:最大、平衡和最小,用户可根据需求选择侧重性能提升、视觉效果无差异或两者间的平衡。使用条件及兼容性说明该工具可注入任何使用DirectX11图形API和OpenVRAPI的游戏,但不适用于含有反作弊系统的游戏,因为这类系统会阻止代码注入。同时,必须配备NvidiaGTX16系列或RTX显卡才能正常运行。在GitHub项目的Wiki页面上列出了部分支持的游戏列表,包括《Half-Life:Alyx》、《SkyrimVR》、《Fallout4VR》等知名作品,但这只是理论上应支持的庞大游戏库的一小部分。值得注意的是,《MicrosoftFlightSimulator2024》、《DCS》和《iRacing》三款游戏已原生支持OpenXR眼动追踪注视渲染,因此无需额外安装PimaxMagic4All。PimaxMagic4All现已上线GitHub,提供了基于Pimax核心代码的源码以及编译版本供用户下载。

  • 不用专业设备,手机+浏览器即可:开源技术Gaussian-VRM重塑数字身份

    2025-10-27

    在2025年大阪・关西世博会备受瞩目的标志性展馆「null²」中,一项名为「MirroredBody®(镜像身体)」的体验让参观者得以在数字世界中与自己的虚拟分身相遇。支撑这一沉浸式体验的核心技术--Gaussian-VRM,近日已正式在GitHub上开源,高保真3D虚拟化身的生成门槛正被大幅拉低。这项技术由筑波大学博士课程的近藤生也主导开发,其核心亮点在于:仅需智能手机拍摄,即可在极短时间内生成高质量3D虚拟形象。相关成果已发表于论文《InstantSkinnedGaussianAvatarsforWeb,MobileandVRApplications》。与传统依赖专业设备或复杂流程的方案不同,Gaussian-VRM采用当前热门的高斯溅射(GaussianSplatting)技术,在保证画质的同时实现了惊人的处理速度。30秒生成,全流程浏览器内完成用户只需使用支持的智能手机应用(如Scaniverse)对全身进行扫描,系统约30秒内即可完成3D建模。整个流程--从扫描、生成到动画展示--均可在浏览器环境中完成,无需安装任何专业软件。这一"端到端"的轻量化设计,极大降低了普通用户和开发者的使用门槛。为实现高效的跨平台应用,团队开发并采用了基于通用虚拟形象格式VRM的专属便携式格式「Gaussian-VRM(.gvrm)」。该格式支持通过JavaScript进行动作控制,便于集成至Web应用、移动应用及VR内容中,真正实现了从生成到应用的全链路闭环。参考GitHub:https://gaussian-vrm.github.io 论文:https://arxiv.org/abs/2510.13978

  • 三星Galaxy XR:以“真·开放”挑战XR生态格局

    2025-10-26

    在XR设备领域,平台开放性正成为继硬件性能之后的又一关键竞争维度。三星GalaxyXR的发布,为这场关于生态控制权的博弈投下了一枚重磅炸弹--它可能是目前三大主流独立式XR平台中最开放的一个。与苹果的visionOS和Meta的HorizonOS相比,GalaxyXR在用户自由度上展现出显著优势。visionOS完全禁止应用侧载(sideloading),仅允许开发者通过Mac上的Xcode编译应用进行测试。而Meta的HorizonOS虽支持侧载,但流程繁琐:用户必须注册开发者身份,提供手机号或支付卡信息完成验证,并通过PC连接设备才能实现应用安装。相比之下,GalaxyXR的体验则简洁得多。据VR52网实测确认,用户无需开启开发者模式,也无需连接PC,即可直接在设备内置的Chrome浏览器中下载AndroidAPK文件并完成安装。只要在"设置-安全与隐私"中授予浏览器"安装未知应用"的权限,整个过程便畅通无阻。开放不止于侧载:可解锁的引导程序更进一步的是,据某科技博主首次公开指出,GalaxyXR似乎允许用户解锁引导程序。这意味着从理论上讲,开发者可以刷入定制操作系统,实现更深层次的系统级改造。尽管目前尚无通用的独立式XR操作系统可供替换,且驱动兼容性等问题仍构成技术壁垒,但这一可能性为未来社区驱动的开源项目打开了大门。最现实的路径可能是基于设备现有的AndroidXR系统进行深度定制。此类项目的动向值得持续关注。"AndroidofXR"的名号之争MetaCEO马克·扎克伯格及其高管团队曾多次将HorizonOS称为"XR领域的Android",强调其相对于visionOS的开放性。然而,当真正的AndroidXR平台--由谷歌主导、搭载于三星GalaxyXR之上--正式亮相后,这一说法显得颇具讽刺意味。事实证明,谷歌自家的XR平台在开放性上,反而远超Meta的"类Android"系统。开放性之外:厂商支持才是胜负手长远来看,决定谁能成为苹果VisionPro之外主流替代方案的关键,或许并非平台开放程度,而是制造商的采纳意愿。目前,华硕(Asus)和联想(Lenovo)正基于HorizonOS开发XR设备,而Xreal、Lynx和索尼则选择了AndroidXR平台。当市场同时提供价格亲民的AndroidXR设备与高端定位的HorizonOS产品,硬件差异逐渐模糊时,用户将如何选择?届时,平台的开放性差异是否会成为影响决策的核心因素?这个问题,或许将在未来几年的答案中重塑XR生态的权力结构。

  • Unity 正式支持 Android XR,Unity 6 起全面赋能新一代VR应用开发

    2025-10-22

    2025年10月22日,Unity宣布从最新版本Unity6起,正式推出对AndroidXR平台的通用支持。这一更新意味着全球开发者现已能够在Unity引擎中,为包括三星GalaxyXR在内的下一代AndroidXR设备开发沉浸式应用与内容,标志着Unity在跨平台XR开发生态中的进一步扩展。自AndroidXR进入早期开发阶段以来,Unity已持续提供技术支持,并积极参与生态共建。此次正式支持不仅允许开发者快速构建全新的XR应用与游戏,还显著降低了迁移成本--现有的Unity项目可便捷地移植至AndroidXR生态系统,加速内容落地。深度整合Google工具链,覆盖多元应用场景Unity表示,已与Google紧密合作,将AndroidXR相关开发工具提前集成至Unity6中,优化了底层兼容性与性能调校。此举旨在为游戏、教育、娱乐、工业培训等多个领域提供稳定、高效的开发环境,推动高质量沉浸式体验的规模化落地。目前,已有多个基于Unity开发的GalaxyXR发售首发应用亮相。其中包括:Google推出的「GoogleMapsonAndroidXR」,将地图导航体验带入空间计算场景;StatusPROInc开发的「NFLProEra」,以沉浸式方式呈现美式橄榄球训练与战术分析;经典VR工作室OwlchemyLabs(代表作《JobSimulator》)带来的新作「Inside[JOB]」,延续其标志性的幽默交互风格。这些作品共同展示了Unity+AndroidXR在消费级与专业级应用中的广泛潜力。

  • Meta浏览器升级:WebXR无需场景扫描即可放置虚拟物体

    2025-10-11

    Meta旗下Horizon浏览器最新版本(40.4)已正式上线,为Quest3与Quest3S设备带来一项关键升级:WebXRHitTesting(命中检测)功能现已基于深度感知技术实现,无需依赖传统的"场景网格"(SceneMesh),即可在网页环境中完成混合现实(MR)虚拟物体的即时放置。这一更新意味着用户在浏览支持WebXR的网页内容时,能够更快速、更自然地将虚拟对象锚定在现实世界的表面--例如将一个3D模型放在桌面或墙上--而无需预先完成房间扫描。从静态建模到实时感知:HitTesting的技术演进WebXRHitTestingAPI是WebXR开放标准的一部分,允许开发者从某个起点(如用户的头部或控制器)发射一条"概念射线",检测其与真实世界几何体的首次交点,从而确定虚拟物体的放置位置。过去在Quest3系列设备上,该功能依赖于混合现实设置过程中生成的"场景网格"进行射线碰撞检测。然而,这一方式存在明显局限:若用户尚未为当前空间生成场景网格,则必须先完成扫描流程,显著增加了使用门槛;即便已有网格,也无法反映家具移动或环境变化后的实时状态,导致虚拟物体放置错位。深度API驱动:实现动态环境感知此次更新的核心在于,HorizonBrowser40.4版本已将HitTesting的底层技术从场景网格切换为Meta的深度API(DepthAPI)。该API通过计算机视觉算法,分析设备前置双追踪摄像头之间的视差,实时生成第一人称视角的深度帧数据,有效距离约为5米。深度API此前已被广泛用于实现混合现实中的动态遮挡效果--即判断虚拟物体是否应被真实物体遮挡。如今,这一能力被引入网页端,使WebXR应用能够直接利用实时深度信息进行命中检测,从而实现"即开即用"的虚拟物体放置体验。开发者生态的进一步统一事实上,这一功能早已向原生应用开发者开放。Unity开发者可通过Meta的混合现实工具包(MixedRealityUtilityKit,MRUK)轻松集成,Unreal及原生应用开发者也可直接调用深度API实现类似效果。此次更新标志着网页端开发者终于获得了同等能力,进一步缩小了WebXR与原生应用在功能体验上的差距。值得注意的是,当前基于深度API的命中检测更适合用于放置静态、简单的虚拟对象或界面元素。若虚拟实体需要在表面移动或与房间其他部分进行复杂交互(如物理碰撞),仍需依赖完整的场景网格扫描。

  • 人类扩展白皮书发布:四大维度勾勒未来人机融合图景

    2025-10-10

    2025年10月7日,人类扩展联盟(HumanAugmentationConsortium)正式发布《人类扩展联盟白皮书--人类扩展技术开拓的未来场景》。该联盟致力于推动人类扩展技术的发展,以应对社会挑战。此次发布的白皮书旨在促进社会各界对"人类扩展技术"形成统一认知,系统梳理了技术框架、应用场景及潜在挑战。联盟成立于2024年12月,是日本内阁府主导的国家项目"战略性创新创造计划(SIP)第三期"的组成部分。截至2025年10月,已有17家企业和机构、5名个人会员加入,正逐步构建跨领域协作的创新生态。四大扩展维度:重新定义人的能力边界白皮书首次将人类扩展技术划分为四大类别:身体能力、知觉、认知、存在,为技术发展提供了清晰的框架。身体能力扩展:通过外骨骼、义肢、动力辅助服等增强肌肉力量与运动机能。知觉扩展:突破人类五感极限,如增强视觉感知范围、提升听觉灵敏度或引入新型感官反馈。认知扩展:借助脑机接口或AI辅助系统,提升记忆力、注意力、决策力与学习效率。存在扩展:利用元宇宙、远程操控、数字分身等技术,突破物理时空限制,实现"身临其境"的远程存在。支撑这四大扩展的技术要素包括:元宇宙等云应用平台、通用技术平台、各类硬件设备(传感器、控制器、手套、头显等),以及作为核心的"用户"本身。白皮书特别强调,用户是扩展的主体,技术设计必须以人为本。企业实践前沿:从运动辅助到感知共享白皮书中展示了多家会员企业的具体实践案例,凸显技术落地的多样性。美津浓(Mizuno)推出了用于运动员的高性能义足弹簧板,并开发了可减轻体力负担的"美津浓动力辅助服"。此外,其"MotionDNA"系统能科学分析步行姿态,为个性化身体增强提供数据支持。NTTDocomo则构建了名为"人类扩展基盘"的平台,能够吸收人与人、人与机器人之间的身体数据与感官差异,实现动作与感知的共享。该技术有望应用于远程协作、虚拟共演等场景,推动"感同身受"的交互体验。除此之外,白皮书还收录了医疗、制造、教育、娱乐等多个领域的应用案例,展现了人类扩展技术的广泛适用性。构建生态:从技术验证到国际标准未来,联盟将通过技术验证项目、推动国际标准制定、举办专题研讨会等方式,加速人类扩展技术的生态构建。白皮书内容也将根据联盟内部讨论及外部利益相关者的反馈,持续更新迭代。随着技术的演进,伦理、法律与社会影响(ELSI)问题日益凸显。白皮书系统梳理了隐私、公平性、身份认同、责任归属等关键议题,为政策制定与社会对话提供了重要参考。

  • 共 137 条1/912345>

    VR52

    VR52网成立于2015年,平台提供VR头显、AR眼镜、配件外设、厂商、测评、行业资讯、游戏与应用、展会活动等。

    热门VR眼镜

    标签

    头显眼镜对比
    清除所有