Tag:YORO技术

  • YORO 通过渲染一只眼睛并合成另一只眼睛来提高 VR 帧率

    2025-08-06 21:33:34

    虚拟现实体验的核心在于沉浸感,而沉浸感高度依赖于稳定的高帧率与高质量的画面表现。然而,由于立体渲染(StereoscopicRendering)需要为左右眼分别生成图像,GPU负载成倍增加,成为制约VR性能与画质提升的关键瓶颈。尤其是在移动VR设备上,性能与功耗的平衡更加敏感。近期,一项名为"你只渲染一次"(YouOnlyRenderOnce,YORO)的新技术,为这一难题提供了极具潜力的解决方案。该研究由加州大学圣地亚哥分校、科罗拉多大学丹佛分校、内布拉斯加林肯大学以及广东工业大学的六位研究人员联合提出,旨在显著降低VR渲染的计算与能耗开销。双目渲染的代价与YORO的思路传统VR渲染中,尽管可通过"单次绘制调用"(SinglePassStereo)优化CPU端的指令提交,GPU仍需完成两套完整的像素着色与内存操作,带来显著的性能负担。YORO的核心理念极为简洁:仅真实渲染一只眼睛的视图,另一只眼的图像则通过合成生成。值得注意的是,YORO并非基于AI或神经网络的技术,不涉及任何机器学习模型,因此不存在"AI幻觉"或生成错误内容的风险。其合成过程完全依赖于传统图形学方法,分为两个阶段:重投影(Reprojection)与修补(Patching)。重投影+修补:高效合成第二视角在重投影阶段,系统使用计算着色器(computeshader)将已渲染眼的每个像素映射到另一只眼的屏幕空间坐标。同时,标记出因视角差异而被遮挡、无法从原视角获取的像素区域。随后进入修补阶段,一个轻量级的图像着色器对这些遮挡区域执行深度感知的图像修复(in-paint),将背景像素信息模糊填充至空缺区域,从而生成完整且视觉连贯的第二视角图像。研究人员声称,YORO可将GPU渲染开销降低超过50%,且在大多数场景下,合成图像达到"视觉无损"(visuallylossless)水平。实测提升32%帧率,但存在特定限制在真实场景测试中,研究人员于Quest2设备上运行Unity的VR示例项目《VRBeginner:TheEscapeRoom》,实现YORO后帧率从62FPS提升至82FPS,增幅达32%,性能提升显著。然而,该技术也存在明确限制:近场失效问题:当虚拟物体距离眼睛极近时,双眼视差显著增大,YORO的合成精度下降。对此,研究建议在极近距离场景中回退至传统双目渲染,甚至可仅对特定近场物体启用双渲染,其余部分仍用YORO。不支持透明几何体:YORO目前无法处理透明物体。但研究人员指出,移动端GPU通常需为透明物体单独进行二次渲染,使用频率较低,因此建议将YORO插入在透明渲染阶段之前,以最大化性能收益。开源实现已发布,能否被平台采纳仍是关键目前,YORO的Unity实现源代码已公开于GitHub,采用GPL开源协议,意味着开发者可自由集成至自有项目中。从技术可行性看,YORO已具备落地条件。但更大的挑战在于:Meta、字节跳动(pico)、苹果等平台方是否会在SDK或系统层级采纳类似技术?若能由底层系统统一支持,YORO的性能红利将惠及整个VR生态。未来数月乃至数年,这将是衡量VR平台技术演进的重要观察点。

  • 共 1 条1/11

    热门资讯