Tag:VR开发

  • Meta 为 Unity 版 Interaction SDK 推出重大更新:手部追踪新增三种移动方式,投掷系统更灵活

    2025-12-19 16:54:15

    Meta近日为其面向Unity引擎的InteractionSDK发布了重要更新(v83),不仅引入了三种全新的手部追踪移动模式,还大幅增强了投掷系统的可定制性。这一升级进一步降低了开发者在构建高质量VR交互体验时的重复开发成本,也为用户提供了更统一、直观的操作逻辑。InteractionSDK是Meta提供的一套Unity框架,旨在为控制器和手部追踪设备提供标准化的高质量交互功能,包括直接抓取、远程抓取、可交互UI元素、手势识别等。借助该SDK,开发者无需从零构建基础交互逻辑,用户也无需在不同应用间反复适应操作方式。值得注意的是,尽管Meta也为UnrealEngine提供了InteractionSDK,但其功能远不如Unity版本完善--此次新增的移动与投掷特性目前仅限Unity平台使用。手部追踪迎来三大新移动模式早在近三年前,InteractionSDK就已支持无控制器的手部追踪瞬移系统,并配套上线了演示应用。如今v83版本在此基础上,一口气推出了三种创新移动方案:"Telepath"移动:瞬移与平滑移动的融合用户通过拇指轻触食指侧面这一微手势即可启动移动。与传统瞬移不同,选定目标点后角色会平滑滑行至目的地。若路径中存在可跳跃障碍物,系统还会自动触发跳跃动作,实现流畅穿越。"WalkingStick"移动:虚拟手杖推动前行该模式为玩家提供一对可选是否可见的虚拟手杖,通过向下按压虚拟地面产生推进力,从而实现前进。其灵感虽类似《GorillaTag》中的移动机制,但针对站立高度和纯手部追踪进行了专门优化,不再依赖控制器模拟四肢。攀爬系统支持手部追踪多数VR游戏的攀爬功能依赖控制器扳机触发抓握,而新版SDK将"可抓取"概念扩展为"可攀爬",使纯手部追踪也能实现攀爬。其核心逻辑恰好相反:不再是将物体拉向玩家,而是将玩家拉向固定抓点。投掷系统支持多类型运动轨迹定制除了移动方式的革新,Meta还对投掷系统进行了深度优化,使其能适配多种现实世界的投掷行为。开发者现在可基于同一套框架,轻松实现以下效果:飞镖、篮球等强调精准度的直线投掷保龄球等带有重量感的抛物线运动飞盘式的旋转飞行轨迹玉米洞、美式足球等特定运动的物理表现所有这些投掷模式均针对无控制器的手部追踪场景进行了调优,确保自然且响应灵敏。值得一提的是,InteractionSDK自一年多前起已支持非Meta品牌的VR头显。这意味着面向PICO、HTCVive等平台的开发者,同样可以利用此次更新中的手部追踪移动与投掷功能,提升跨平台体验的一致性。

  • Meta 发布 WorldGen:文本生成完整3D世界,但 Horizon Worlds 还用不上

    2025-11-25 09:32:09

    在AI生成3D内容的竞赛中,Meta最新推出的WorldGen系统再次将行业门槛推高--它能仅凭一段文字提示,自动生成几何一致、视觉丰富、可交互导航的三角网格。然而,Meta却坦言:这项技术尚未准备好集成到其社交VR平台HorizonWorlds中。从AssetGen到WorldGen:Meta的AI造世之路早在2025年5月,Meta就预告将在HorizonWorlds创作工具中引入"AI自动生成完整3D世界"的能力,并发布了相关模型AssetGen2.0。6月,该功能被正式命名为"EnvironmentGeneration"(环境生成),并展示了示例场景,称将"很快上线"。结果,8月上线的EnvironmentGeneration仅能生成一种特定风格的岛屿,与"通用世界生成"的愿景相去甚远。如今,Meta在一篇技术论文中正式披露了其更强大的下一代系统--WorldGen,这才是真正面向"任意文本生成任意世界"的终极方案。WorldGen是什么?不是GaussianSplat,而是真·游戏级3D与近期热门的WorldLabs的Marble(基于GaussianSplatting)或GoogleDeepMind的Genie3(生成交互式视频流)不同,WorldGen输出的是标准的三角网格(trimesh):兼容Unity、Unreal等传统游戏引擎;包含完整的导航网格(navmesh),支持角色碰撞检测与NPC自主导航;场景由真实3D资产构成,而非视觉近似体。Meta将其描述为:"一个端到端的先进系统,通过单一文本提示生成可交互、可导航的3D世界,服务于游戏、仿真与沉浸式社交环境。"四步生成流程:从文本到可玩世界据Meta披露,WorldGen的生成流程分为四大阶段:(1)规划阶段(Planning)程序化生成基础布局(blockout)提取导航网格(navmesh)生成参考图像指导后续重建(2)重建阶段(Reconstruction)图像到3D基础模型生成基于navmesh构建完整场景结构初步纹理生成(3)分解阶段(Decomposition)使用加速版AutoPartGen提取场景部件(如门、窗、家具)对部件数据进行清洗与结构化(4)精修阶段(Refinement)图像增强网格细节优化高质量纹理贴图生成整个过程融合了程序化生成、扩散模型、场景理解与几何优化,形成一条完整的AI世界生产管线。为何还不上线?两大瓶颈待解尽管技术惊艳,Meta明确表示WorldGen暂不会集成到当前的HorizonWorldsDesktopEditor,也不会作为即将推出的HorizonStudio的首发功能。原因有二:空间尺寸受限:目前仅能生成50×50米的区域,对于开放世界而言太小;生成速度慢:从文本到完整世界仍需较长时间,无法满足创作者"秒级迭代"需求。Meta正在全力优化这两点,目标是在2026年推出大幅升级版,以兑现其在Connect2025大会上展示的HorizonStudio愿景--一个拥有AI助手的全能创作平台,可即时生成:完整世界定制化资产具备行为逻辑的NPC特定玩法机制⚠️但当时演示的内容,可能更多是"概念原型",而非已部署的技术。HorizonWorlds创作现状:DesktopEditor已支持部分AI功能目前,创作者可通过HorizonWorldsDesktopEditor进行flatscreen开发:导入3D模型、贴图、音频;使用TypeScript编写游戏逻辑;在美国、英国、加拿大、欧盟、澳大利亚、新西兰等地区,还可调用AI生成:3D网格资产纹理与天空盒音效与环境音TypeScript代码片段但完整世界生成,仍需等待WorldGen成熟。展望随着AI3D生成技术指数级演进,Meta很可能在2026年实现其"人人都是世界建筑师"的承诺。届时,HorizonStudio或将成为首个真正意义上的AI驱动元宇宙创作平台--你只需说:"创建一个赛博朋克夜市,有霓虹招牌、雨天街道、可互动的机器人摊贩",系统便在几分钟内交付一个可多人游玩的完整VR世界。而WorldGen,正是通往这一未来的基石。

  • World Labs 发布 Marble:一张图或一句话,几分钟生成可交互3D场景

    2025-11-25 09:13:18

    由人工智能先驱李飞飞(Fei-FeiLi)于去年创立的初创公司WorldLabs,近日推出其首款产品--Marble。这款生成式AI模型能将单张图片、一段文字,甚至短视频,在短短几分钟内转化为可在WebXR中直接浏览的体素化3D场景,为VR/AR内容创作带来前所未有的效率革命。从ImageNet到"世界模型":李飞飞的新征程作为2010年代推动计算机视觉爆发的关键人物,李飞飞因创建ImageNet数据集而广为人知--她敏锐地意识到:高质量标注数据的缺失,才是AI进步的最大瓶颈。如今,她将这一理念延伸至三维空间,带领WorldLabs打造所谓"首类生成式多模态世界模型"(first-in-classgenerativemultimodalworldmodel)。Marble的核心技术基于近年主流的3DGaussianSplatting(高斯泼溅)技术--通过在三维空间中排布成千上万个半透明彩色"高斯点",实现实时、任意视角的逼真渲染。但与其他系统相比,Marble在输入灵活性与生成速度上实现了显著突破。单图秒变3D?Marble的能力边界免费模式:仅需一张图片或一段文本提示,几分钟内即可生成可浏览的3D场景;付费订阅(20美元/月):支持多图输入、短视频、甚至粗略3D结构,并通过名为Chisel的编辑工具进行深度创作。Chisel允许用户像使用游戏引擎一样,在场景中放置简单几何体(如立方体、球体),再用自然语言指令(如"把这里变成热带雨林")将其转化为细节丰富的体素环境。更关键的是,付费用户还能:对生成场景进行交互式编辑与扩展;合并多个世界构建复杂空间;导出为传统3D网格(mesh),用于Unity、Unreal等引擎开发(转换需数小时)。所有生成内容均可通过WebXR在Quest3、AppleVisionPro等设备的浏览器中直接查看,无需安装专用应用。实测体验:快,但仍有局限在实际测试中(例如将一张2014年SteamDevDaysVR会场照片输入Marble),生成场景的质量明显低于Meta的HorizonHyperscape或VarjoTeleport,大致介于NianticScaniverse之上、专业扫描之下。主要问题在于:画面中心区域(对应原图内容)细节尚可;边缘及背面区域则依赖AI"脑补",出现典型高斯泼溅的模糊、扭曲或结构失真;若仅用单图输入,相机视野外的内容纯属幻觉,与真实环境可能大相径庭。📌因此,若追求高保真重建,仍需提供多角度图像或视频。为何Marble依然值得期待?尽管存在画质限制,Marble的真正价值在于"快速原型+语义驱动创作":游戏开发者可用它几分钟内搭建关卡雏形;教育者能将历史照片转为可探索的3D课堂;社交VR创作者可通过自然语言"描述梦境",即时生成虚拟聚会空间。结合Chisel的几何可控性与自然语言接口,Marble正在模糊"内容消费者"与"世界建造者"之间的界限。使用须知官网地址:marble.worldlabs.ai免费账户生成的场景默认公开;私有场景、高级编辑与导出功能需订阅20美元/月计划。

  • Meta推Unity性能优化神器:Quest Runtime Optimizer降低VR开发门槛

    2025-08-12 08:36:51

    对于VR应用开发者而言,性能优化始终是决定用户体验流畅度的关键挑战。帧率波动、渲染瓶颈、资源过载--这些问题往往需要借助专业工具和深厚的技术经验才能定位。为此,Meta近日推出QuestRuntimeOptimizerforUnity,一款专为Unity引擎打造的免费性能分析工具,旨在帮助开发者快速识别并解决Quest应用的性能瓶颈。这款工具并非从零构建,而是针对现有专业工具在易用性上的不足进行精准补位。资深图形程序员通常依赖如RenderDoc或Meta命令行工具ovrgpuprofiler等底层分析手段,但这些工具学习成本高,且不理解Unity引擎内部的编辑器设置与项目结构,对新手极不友好。更直观的起点:专为Unity开发者设计的性能入口Meta明确表示,QuestRuntimeOptimizer并非要取代RenderDoc或ovrgpuprofiler,而是作为"性能优化流程的第一站",目标是"帮你节省数小时的手动性能分析时间"。该工具以Unity编辑器内的UI窗口形式集成,提供高度可视化的分析界面和可执行的优化建议(actionableinsights),让开发者无需深入底层图形API,即可快速理解问题根源并采取改进措施。三大分析模式,直击性能痛点QuestRuntimeOptimizer提供三种核心分析功能,覆盖从诊断到验证的完整优化流程:1.瓶颈分析(BottleneckAnalysis)自动检测当前场景中的主要性能瓶颈,例如GPU填充率、顶点处理、材质开销等,并能按性能消耗对"实体"(Entity)进行排序--这里的实体指网格、纹理与材质的组合。开发者可据此优先优化最"烧性能"的视觉元素。2.假设分析(WhatIf?Analysis)该功能执行一种"自动化的A/B实验":它会逐一禁用摄像机视野内的游戏对象,测量其对GPU性能的影响,从而量化每个对象的实际性能成本。这有助于识别"看似不起眼却严重拖累帧率"的隐藏元凶。3.材质/着色器分析(Material/ShaderAnalysis)此功能目前仅限Windows与Linux平台使用,可深入分析材质和着色器的性能表现,帮助开发者发现冗余计算、高开销指令或不合适的渲染状态设置。免费开放,无缝集成QuestRuntimeOptimizer现已免费上线UnityAssetStore,开发者可直接下载集成到项目中。其运行条件如下:硬件:配备HorizonOSv78或更高版本的Quest头显(如Quest2、Quest3、Quest3S);软件:Unity2022.3或以上版本。工具在实际运行时,通过连接设备实时采集性能数据,并在Unity编辑器中即时反馈分析结果,形成"开发-测试-优化"的高效闭环。结语:降低门槛,提升效率在VR内容开发日益普及的今天,Meta推出这款工具,实质是将过去仅限专家掌握的性能调优能力"平民化"。它不追求极致深度,而是强调易用性与行动导向,让中级甚至初级Unity开发者也能快速上手,显著提升优化效率。正如Meta所言,QuestRuntimeOptimizer不是终点,而是优化旅程的"起点"。它将开发者从繁琐的底层排查中解放出来,更快进入核心内容创作,为Quest平台带来更多高质量、高帧率的沉浸式体验。

  • OpenXR 发布空间实体扩展标准,统一环境感知与空间交互能力

    2025-06-18 08:42:15

    近日,OpenXR联盟发布了全新的"OpenXR空间实体扩展(SpatialEntitiesExtensions)"标准,旨在为AR、VR和MR应用提供一套通用的技术接口,以实现对现实世界环境的感知和交互。这些新标准涵盖了:表面检测(SurfaceDetection)标记追踪(MarkerTracking)空间锚点(SpatialAnchors)数据持久化(Persistence)这些功能长期以来依赖于各厂商自有的SDK或扩展接口,如今首次在OpenXR框架下实现了标准化。📚什么是OpenXR?OpenXR是一个面向AR、VR和MR应用开发与运行时的开放标准API。它由非营利性行业联盟KhronosGroup主导管理,该组织同时也是OpenGL、Vulkan和WebGL等图形标准的维护者。OpenXR的核心理念是:让开发者只需编写一次应用代码,即可在多种头显设备上运行,而无需为不同硬件平台使用各自的专属API。目前,几乎所有的主流头显设备、引擎和运行时都已支持OpenXR,苹果VisionPro和PlayStationVR2(PS5平台)除外。🧱OpenXR空间实体扩展详解此次发布的OpenXR空间实体扩展目标在于为开发者提供一套统一的方式,利用头显或眼镜的空间感知能力,构建能够与用户物理环境互动的应用体验。在此之前,这类功能往往依赖于特定厂商的扩展或SDK实现。现在,它们被整合进OpenXR的标准化体系中,大大提升了跨平台兼容性和开发效率。该扩展体系围绕一个基础扩展:✅XR_EXT_spatial_entities这是整个空间实体功能的基础模块,提供了"在用户环境中表示和操作空间元素"的基本能力。在此基础上,还定义了五个关键子扩展:🪟1.XR_EXT_spatial_plane_tracking功能:对现实世界中的平面进行检测与空间追踪用途:可识别桌面、地面、墙面等表面,便于虚拟对象放置🧾2.XR_EXT_spatial_marker_tracking功能:对环境中的视觉标记(如QR码)进行六自由度(6-DOF)跟踪用途:可用于引导导航、触发事件、增强信息展示等场景📌3.XR_EXT_spatial_anchor功能:允许将虚拟内容精确地定位到现实世界中的具体位置用途:支持在特定地点固定虚拟物体,适用于导航、AR游戏、工业维修等🔒4.XR_EXT_spatial_persistence功能:让空间上下文数据在应用会话之间保持一致用途:用户关闭应用后再次打开时,仍能看到之前放置的虚拟对象🗂️5.XR_EXT_spatial_persistence_operations功能:提供对持久化空间数据的高级管理功能用途:包括空间数据的查询、删除、更新等操作,适用于企业级AR场景🗣️官方表态:推动互操作性生态建设Meta的RonBessems是当前OpenXR工作组的主席,他在一份声明中表示:"OpenXR空间实体扩展解决了开发者社区最迫切的需求之一,是我们打造强大且真正可互操作的XR生态系统道路上的重要里程碑。这些扩展经过精心设计,作为一个可发现、可扩展的功能集合,不仅为当前的空间应用打下了坚实基础,也为未来便携式空间计算的持续创新铺平了道路。"🔜后续计划:图像与对象追踪、环境建模等扩展正在讨论中Khronos还透露,目前正在讨论中的后续扩展包括:图像与对象追踪(ImageandObjectTracking)基于网格的环境建模生成与处理(Mesh-basedEnvironmentModeling)这些功能将进一步丰富空间计算的能力边界。💼行业广泛支持:Meta、Google、Unity等七家公司承诺尽快支持包括Meta、Google、pico、Varjo、Unity、Godot和Collabora在内的七家科技公司均已发布官方声明,表达对OpenXR空间实体扩展的支持,并承诺将在其产品和服务中尽快实现这些标准。这标志着OpenXR正在成为全球XR开发者生态系统的核心支柱。📌编者按:随着空间感知能力的标准化,OpenXR再次迈出推动跨平台互操作性的关键一步。对于开发者而言,这意味着更少的适配工作、更高的复用率;对于用户而言,则意味着更稳定、更一致的空间体验。随着更多头部企业的加入,这一标准有望在未来几年内成为XR领域的"事实标准"。

  • Meta Spatial SDK 自 9 月发布以来迎来多项重大升级

    2025-06-18 08:36:23

    自去年9月正式推出以来,Meta已对其SpatialSDK进行了多项重要改进。这款开发工具旨在让开发者能够使用现有的Android移动应用开发工具(而非传统的游戏引擎如Unity、Unreal或Godot)来构建适用于HorizonOS的应用。这意味着开发者可以继续使用熟悉的工具链,包括:AndroidStudioKotlin编程语言现有的移动框架和库这些工具不仅降低了上手门槛,也为更广泛的Android开发者群体打开了通往元宇宙的大门。🧩HorizonOSUI组件集上线,提升界面一致性早在去年,Meta就为Unity开发者推出了一个UI套件,帮助其构建符合Quest系统设计语言的应用界面。对于消费级操作系统来说,UI套件是开发工具中不可或缺的一部分,它确保第三方应用在视觉和交互上与系统保持一致,从而提供更统一的用户体验。如今,MetaSpatialSDK也加入了HorizonOSUI组件集,这意味着使用该SDK构建应用的开发者无需从零开始设计界面,也能获得与系统一致的外观和体验。这一更新特别有助于非游戏类应用的开发,例如工具类、生产力类或生活服务类应用,使它们在Quest平台上更容易被用户接受和使用。👐InteractionSDK(Beta版本):标准化交互方式,提升用户体验一致性虽然统一的UI设计提升了系统的美观性,但在XR(扩展现实)环境中,交互的一致性往往更为关键。Meta自2022年初就为Unity提供了InteractionSDK,并在去年将其扩展至Unreal引擎。该SDK包含以下功能:直接抓取与持握物体远距离抓取可点击的2D和3D按钮传送机制手势识别等对开发者而言,这意味着无需重复实现这些常见交互逻辑;对终端用户来说,则意味着不同应用之间的操作更加统一,无需反复学习新交互方式。现在,InteractionSDK已作为Beta功能集成进SpatialSDK,取代原有的输入系统,使基于SpatialSDK开发的应用也能享受到与Unity和Unreal开发者相同的交互一致性。⚡性能优化:复杂场景下仍可稳定运行于90fpsMeta表示,已对系统脚本进行了性能优化,并声称:"SpatialSDK应用现在可以更稳定地维持流畅的90fps帧率--即使在处理复杂场景时也不例外。"此外:"更快的ECS查询机制和新增的高级过滤支持,使得开发者可以编写更智能、更高效的逻辑代码,而不会牺牲性能。无论你是在构建高度互动的环境,还是需要频繁更新大量实体对象,这些改进都让打造丰富且沉浸式的混合现实体验变得更加轻松。"📷穿透摄像头访问权限开放:增强现实能力再升级今年早些时候,Meta已向Unity和原生应用开发者开放了Quest3和Quest3S的彩色穿透摄像头访问权限。这项功能的应用场景非常广泛,例如:扫描和追踪二维码检测桌面上的游戏板并叠加虚拟角色与对象在企业引导体验中检测物理对象集成基于云端大模型的视觉AI功能对于使用SpatialSDK的开发者,Meta推出了一个开源的SpatialScanner示例项目,展示了如何以高性能方式实现上述功能。🧰AndroidStudio插件发布:简化开发流程为了进一步提升AndroidStudio(Google官方Android开发IDE)用户的开发效率,Meta发布了一个名为AndroidStudioPlugin(ASP)的插件。该插件宣称:"通过提供项目模板、数据模型检查器以及组件/系统文件模板,显著提升了使用SpatialSDK的开发体验。"Meta表示:"对于新项目,只需下载安装插件并选择我们的模板,即可快速完成初始化设置。"🎨SpatialEditor2.0:无须游戏引擎也能高效编辑2D/3D内容自去年10月推出以来,Meta就为其SpatialSDK提供了SpatialEditor,这是一款无需使用游戏引擎编辑器即可进行2D和3D元素布局、缩放和排列的可视化工具,类似于Apple为visionOS提供的RealityComposerPro。而在最新的SpatialEditor2.0中,Meta引入了:"一种新的组件系统,允许开发者使用XML来定义和管理组件,从而提升灵活性",并可根据XML输入生成Kotlin组件代码。这一更新大大增强了开发者在构建结构化应用时的可控性和效率。🎬PremiumMediaSample:媒体类应用开发更轻松Meta表示,使用SpatialSDK构建最流行的应用之一就是简单的媒体播放器,例如:3D照片查看器360°视频播放器为此,Meta在GitHub上发布了"PremiumMediaSample"示例项目,展示如何流式传输180°、3D以及受DRM保护的内容。此外,官方文档中还新增了一个专门章节,详细介绍了媒体播放相关的技术细节和最佳实践。📌编者按:随着Meta不断推进SpatialSDK的功能完善,越来越多的开发者可以在不依赖传统游戏引擎的前提下,构建高质量的混合现实应用。无论是UI设计、交互控制、性能优化,还是媒体播放,Meta正在逐步将SpatialSDK打造成一套完整的开发体系,为未来的空间计算生态奠定基础。

  • UNIGINE 2.19.1 增强了照片级真实感、VR 升级等功能

    2025-01-05 13:44:54

    UNIGINE2.19.1推出了几个值得注意的功能,应该会吸引各行各业的开发人员和专业人士。从升级到逼真的渲染,再到增强的虚拟现实和动画工具,UNIGINE提供了旨在提升其平台的创造力和技术潜力的增强功能。SSRTGI的照片级真实感UNIGINE通过改进其屏幕空间光线追踪全局照明(SSRTGI)技术,在照片级逼真渲染方面又迈进了一步。半球光线分布的彻底改进旨在提供更自然、更逼真的视觉效果。屏幕空间环境光遮蔽(SSAO)的伽马校正问题也已得到解决,确保无论是在标准缓冲区还是在调试可视化模式下查看,渲染都更加准确。此外,SSAO与反射之间不必要的重叠问题也已得到解决,从而可以实现更清晰、更逼真的反射效果。VR获得DLSS和FSR性能提升VR开发人员会很高兴地听到2.19.1版本将对NVIDIADLSS3和AMDFSR2.2升级技术的支持扩展到此类项目。这些工具最初在2.18.1版中引入,对于减少像素渲染负载并保持视觉保真度至关重要。它们在VR中的实施可确保更顺畅、更流畅的体验,尤其是在使用资源密集型应用程序或更高分辨率时。SpiderVision和WebStream插件改进SpiderVision插件是高级可视化项目的主要插件,现已进行升级,旨在提高可用性。新的撤消和重做功能、投影设置小部件中的多选功能以及直观的UI工具提示只是SpiderVision实现的增强功能中的一小部分。API中引入的"无边框"窗口类型为需要无缝视觉集成的应用程序增加了更多灵活性。UNIGINE的WebStream插件是2.19版中的一个重要新增功能,支持通过WebRTC流式传输UNIGINE应用程序渲染的音频和视频帧。在此版本中,该平台扩展了这些功能,允许将场景中任何摄像头的流式传输到单独的Web浏览器。最新的WebStream功能可以为各种客户端提供不同的视角,无论是在移动设备还是台式机上。能够打开多个浏览器实例来展示不同的摄像头视图,进一步凸显了此更新可能会改变协作和远程工作环境。动画预览和USD支持动画一直是UNIGINE的重点,版本2.19.1在资产浏览器中引入了内置动画预览工具。此新功能允许开发人员在将动画应用于SkinnedMesh对象之前预览动画,从而简化了工作流程,消除了不必要的步骤,同时加快了创作过程。对于使用通用场景描述(USD)文件的用户,此更新基于2.19版中引入的导出功能,现在包括USD导入功能。开发人员可以直接在UNIGINE生态系统中处理usda、usdc和usdz文件格式,从而促进内容创建工具之间的工作流程更加顺畅。此外,USDExport插件已更名为USDExchanger,现在可在所有SDK版本(包括免费社区版)中访问。通过ImGui集成简化插件创建那些希望扩展UNIGINE编辑器功能的人会发现DearImGui图形界面库有很多值得赞赏的地方。该版本包含一个可通过Add-OnStore获得的"ImGuiSamplesPlugin",旨在帮助开发人员轻松创建自定义插件。三个示例演示了该插件的功能:样条线编辑器:在样条线编辑中使用撤消/重做API、自定义可视化和热键重新映射的展示。编辑器(即时模式):演示如何使用类似ImGui的原理实时创建简单插件,并提供交互式多边形操作示例。组件:重点介绍用户如何在编辑器中生成和分配C++组件到节点,从而实时调整参数。UNIGINE2.19.1中其他值得注意的新增功能此次更新还包含一些较小的调整和改进,进一步提高了SDK的性能和可用性:OpenXR手部追踪和对Linux系统的支持。更快的GUI渲染,据称效率提高了两倍。性能提升,例如优化的哈希图和改进的编辑器生活质量功能。方向盘控制器的力反馈支持,适合模拟项目。新的开发工具,包括带有运动链的基于物理的机械臂示例和面向C++开发人员的免费学习课程。此外,通过允许直接从SDK浏览器创建新帐户,用户帐户注册也变得更加简单。UNIGINE2.19.1带来了许多有意义的新功能,例如VR升级、更强大的USD文件支持以及插件开发工具。借助这些最新增强功能,该平台旨在提升其在游戏、模拟、培训等领域作为高要求专业级项目的可靠选择的地位。

  • 共 7 条1/11

    热门资讯