Tag:虚拟化身

  • 不用专业设备,手机+浏览器即可:开源技术Gaussian-VRM重塑数字身份

    2025-10-27 08:35:32

    在2025年大阪・关西世博会备受瞩目的标志性展馆「null²」中,一项名为「MirroredBody®(镜像身体)」的体验让参观者得以在数字世界中与自己的虚拟分身相遇。支撑这一沉浸式体验的核心技术--Gaussian-VRM,近日已正式在GitHub上开源,高保真3D虚拟化身的生成门槛正被大幅拉低。这项技术由筑波大学博士课程的近藤生也主导开发,其核心亮点在于:仅需智能手机拍摄,即可在极短时间内生成高质量3D虚拟形象。相关成果已发表于论文《InstantSkinnedGaussianAvatarsforWeb,MobileandVRApplications》。与传统依赖专业设备或复杂流程的方案不同,Gaussian-VRM采用当前热门的高斯溅射(GaussianSplatting)技术,在保证画质的同时实现了惊人的处理速度。30秒生成,全流程浏览器内完成用户只需使用支持的智能手机应用(如Scaniverse)对全身进行扫描,系统约30秒内即可完成3D建模。整个流程--从扫描、生成到动画展示--均可在浏览器环境中完成,无需安装任何专业软件。这一"端到端"的轻量化设计,极大降低了普通用户和开发者的使用门槛。为实现高效的跨平台应用,团队开发并采用了基于通用虚拟形象格式VRM的专属便携式格式「Gaussian-VRM(.gvrm)」。该格式支持通过JavaScript进行动作控制,便于集成至Web应用、移动应用及VR内容中,真正实现了从生成到应用的全链路闭环。参考GitHub:https://gaussian-vrm.github.io 论文:https://arxiv.org/abs/2510.13978

  • 在VRChat中“化身飞鸟”:玩家用眼动追踪实现“狮鹫飞行梦”

    2025-10-04 08:19:02

    在虚拟社交平台VRChat中,一群热衷于"角色扮演+技术改造"的创作者正突破虚拟化身的边界--他们不再满足于静态形象,而是通过技术手段,真正"变成"幻想中的生物。最近,创作者Purpzie的项目引发了社区热议:他利用QuestPro的眼动追踪功能,成功打造了一只可通过眼球运动控制头部动作的虚拟狮鹫(gryphon),实现了"在空中翱翔"的沉浸式体验。眼动驱动的虚拟生物:灵感来自猫头鹰Purpzie的创作灵感源自另一位用户groxxy设计的猫头鹰化身,而其技术基础则建立在创作者manyblinkinglights制作的狮鹫模型之上。他将QuestPro的眼动追踪数据接入化身的头部运动系统,使得虚拟狮鹫的头部能够自然地跟随使用者的眼球转动而转动,仿佛真正拥有了生物般的感知与反应。"我的主要目标是让人感觉'自己真的变成了一只生物',"Purpzie在分享中写道,"小时候,我总幻想自己是飞龙或狮鹫,在天空中翱翔。从没想过,有一天能在VR中实现这个梦想。"为了实现这一效果,Purpzie花了整整两周时间,专注于调整动画系统与FinalIK(反向运动学)插件,以确保四足生物的运动能自然映射到人类身体上。可自定义的飞行控制:翅膀、前肢与表情全由你掌控在支持开放飞行的世界中,Purpzie可以操控他的狮鹫化身自由翱翔。他不断优化动画与IK系统,以提升飞行的真实感。更令人惊叹的是,玩家可以自定义手臂控制的对象:控制翅膀拍打控制前肢行走或抓握甚至控制头部姿态此外,通过预设手势,用户还能操控狮鹫的面部表情,实现更丰富的社交互动。

  • Meta 高薪招募参与者:用表情、语音和动作训练未来虚拟人,Codec Avatars 或 2026 年落地

    2025-05-17 22:10:36

    Meta正在通过第三方数据公司Appen招募志愿者参与一项名为"ProjectWarhol(安迪·沃霍尔计划)"的项目。该项目旨在收集人类面部表情、语音语调以及身体动作等数据,用于训练其下一代虚拟化身系统--CodecAvatars(编解码化身)。根据招募公告:"ProjectWarhol致力于提升未来虚拟现实的沉浸感。在一次录制会话中,你将完成一系列任务,包括模仿面部表情、朗读句子、做出手势、追踪眼部目标,并进行全身活动范围测试。"该项目的数据采集工作正在宾夕法尼亚州匹兹堡市的一栋四层楼Meta研发中心内进行,该建筑总面积达10万平方英尺,是Meta多年来研究CodecAvatars技术的核心基地。跨越"恐怖谷",打造更真实的虚拟人像在过去十多年里,Meta一直在匹兹堡推进CodecAvatars项目的研究。这一技术旨在创建高度逼真的数字人类形象,并通过VR设备实时追踪用户行为驱动这些虚拟化身。据参与过体验的人士表示,目前最高质量的原型已经实现了跨越"恐怖谷"的突破--即让虚拟人物看起来足够真实而不至于引发不适感。CodecAvatars的终极目标:实现真正的"社交存在感"Meta表示,CodecAvatars的最终目标是实现"社交存在感(socialpresence)"--一种让你下意识地感受到对方就在你身边的感觉,即使他们实际上远在千里之外。目前市面上没有任何消费级产品能够做到这一点。即使是视频通话也远远无法达到这种沉浸式互动的效果。数据采集多年持续推进,离正式上线越来越近虽然Meta告诉《商业内幕》(BusinessInsider)称,他们多年来一直在进行虚拟化身相关数据的采集工作,但近年来,该公司似乎正逐步接近将CodecAvatars推向消费者设备的目标。自2024年初以来,研究人员已经在Quest的操作系统HorizonOS中发现了与CodecAvatars相关的代码线索。这表明该功能可能正在系统底层悄然构建。2024年9月,时任MetaVR/MR副总裁MarkRabkin曾对Engadget表示:"如果我们做得足够好,我认为在下一代头显上实现这一目标是有可能的。"这番话进一步暗示了这项技术即将从实验室走向实际应用。打通移动端:从手机扫描到独立设备Meta已经在基于独立设备的虚拟化身解码方面取得了显著进展。目前最大的挑战在于缩小两种CodecAvatar的质量差距:一种是使用配备超过100台摄像机的专业采集设备生成的高质量虚拟形象;另一种则是通过智能手机或头显扫描生成的、更适合大规模部署的模型。早在2022年,Meta就展示了通过智能手机拍摄生成的CodecAvatar,但当时的流程需要用户做出65种面部表情,耗时超过三分钟,且处理时间长达数小时。而今年早些时候,Meta公布了一种新方法:仅需四张手机自拍,几分钟内即可生成虚拟形象。尽管该模型在RTX3090上运行速度仅为8FPS(帧每秒),但它标志着迈向实用化的重要一步。未来展望:MetaConnect2025或公布新进展随着MetaConnect2025大会在9月17日即将召开,外界普遍期待Meta将在此活动中展示CodecAvatars的最新成果。一个可能的发展路径是,Meta会率先推出一款适用于普通屏幕的简化版CodecAvatar,让用户在WhatsApp和Messenger视频通话中使用比当前MetaAvatar更加写实的虚拟形象。但要真正实现Meta承诺的那种VR编解码化身体验,还需要搭载具备面部追踪功能的新一代头显。而种种迹象表明,这款设备预计将在2026年发布,而不是今年。

  • 共 3 条1/11

    热门资讯