去年,惠普(HP)宣布将成为首家推出基于GoogleBeam(前称"ProjectStarline")技术硬件的企业。如今,这款备受期待的设备--HPDimensionwithGoogleBeam正式亮相,目标直指高端企业市场,售价高达25,000美元。📸光场+AI技术融合:打造逼真3D远程协作体验HPDimension是一款结合了光场显示与先进AI技术的3D视频会议设备。它通过6颗摄像头和"尖端人工智能算法",实时捕捉并重建每位参与者的3D影像,呈现在一块65英寸的光场显示屏上。这台显示器能够呈现真人大小、具备真实深度感和色彩还原的3D影像,并支持自然的眼神交流,带来前所未有的沉浸式远程沟通体验。💻定价高昂,面向企业客户,Q4开始供货据HP官方消息,HPDimension将于2025年第四季度起向部分合作伙伴发售,每套设备售价为25,000美元。值得注意的是,该价格不包含GoogleBeam的软件授权费用,后者需另行购买。作为一款面向企业的高端协作工具,Dimension支持主流视频会议平台,包括:ZoomRoomsGoogleMeetMicrosoftTeamsCiscoWebex这意味着它不仅可以进行沉浸式的3D虚拟面对面交谈,也能无缝切换回传统2D多人会议模式,满足多种办公场景需求。🧠惠普高管发声:我们相信"真实的连接"才能激发真正的协作力HPInc.混合系统事业部高级副总裁兼总裁HelenSheirbon表示:"我们认为,真正有意义的协作建立在真实的人际互动之上。因此我们与Google合作,将HPDimensionwithGoogleBeam从实验室带入企业现实场景中。这项技术弥合了虚拟与现实之间的鸿沟,创造出栩栩如生的虚拟沟通体验,让我们彼此更加贴近。"🔬技术背景回顾:GoogleBeam的前世今生GoogleBeam最早源自2021年推出的实验性项目ProjectStarline,其核心理念是利用"光场显示技术"实现无需XR设备或眼镜辅助的3D视觉效果,模拟真实面对面交流的感觉。💡🕶️在实际测试中,HP发现使用Beam技术的视频会议带来了以下显著提升:39%的用户注意到更多非语言行为(如点头、手势)37%的参与者表示轮流发言更顺畅28%的用户反馈记忆保留率更高这些数据表明,Beam不仅提升了会议效率,也增强了人际沟通的情感连接。📌编者按:随着远程办公和混合协作成为常态,企业对"沉浸式沟通"的需求日益增长。HP与Google联手推出的HPDimensionwithGoogleBeam,标志着3D视频会议技术首次走向商用落地。尽管价格昂贵,但它为未来会议空间设定了全新的标准。
在AugmentedWorldExpo(AWE)2025年大会上,联合创始人OriInbar接受采访,分享了他对XR(扩展现实)行业发展的深刻见解。本届大会主题为"XRIsGoingMainstream(扩展现实正走向主流)",标志着AR/VR技术正在从概念验证阶段迈向大众应用。🔑核心要点总结:✅XR市场已进入主流化阶段AWE从2010年初创时仅300人参会,发展到如今拥有近5,000名参与者和250家参展商。📱移动AR已被广泛使用约三分之一美国人口通过手机使用AR,Z世代尤其活跃于社交、购物等场景。消费者正在等待更合适的硬件形态来获得更好的AR体验,如SnapchatSpectacles等智能眼镜。🌀视场角是AR发展关键VisionPro等设备提供约100度视场角,带来更沉浸的混合现实体验。当前VR头显在视场角和显示质量上优于现有AR眼镜,短期内仍是高质量AR的主要载体。🔮未来趋势:单一设备统一所有功能OriInbar预测,未来几年内将出现一种集AR与VR功能于一体的设备。光学技术方面,视网膜投影可能是终极解决方案,但目前仍面临技术挑战。🧩"ARonVR"成当前过渡方案VisionPro和Quest3展示了"在VR中实现AR"的可行性,Apple更将其定位为AR设备。这种架构被认为是向未来全功能设备演进的重要中间形态。💡行业瓶颈:设计语言重于硬件当前最大的挑战并非硬件性能,而是如何设计出既实用又不干扰现实的AR内容。随着优质MR设备普及,AR的用户体验正在快速成熟。📌总结: OriInbar强调,XR行业已经走过早期探索阶段,正逐步进入主流市场。虽然硬件仍在进化中,但真正的瓶颈在于内容与交互设计。未来设备将趋向融合,而"ARonVR"模式将成为通往终极目标的重要桥梁。
一项全新的生成式AI视频编辑功能现已在MetaAI应用、Meta.AI网站和Edits应用中上线。该功能旨在帮助用户更轻松地实现创意构想。用户现在可以通过多种预设的AI提示词(AIprompts),对短视频进行快速编辑,例如:改变服装搭配👕👗调整背景场景🌄🏙️切换整体风格🖼️🎮将视频转换为漫画、游戏画风等创意形式该功能已在美国及全球十几个国家和地区上线。🚀源自MovieGen模型,迈向AI视频编辑的重要一步💡🎞️这项新功能灵感来源于MovieGen模型,是推动AI视频生成与编辑技术落地的重要进展之一。今年晚些时候,平台将推出支持文本输入驱动的视频编辑功能。届时,用户只需输入文字描述,AI即可按照设定修改视频内容,实现"所想即所得"的编辑体验。🎨让每个人都能轻松创作高质量视频🧠📹该AI视频编辑工具的设计目标是:无需专业剪辑经验,也能制作高质量视频作品。使用流程非常简单:将一段视频上传至MetaAI应用、Meta.AI网站或Edits应用浏览并选择超过50种AI编辑提示词一键应用,系统将自动完成视频风格转换目前限时免费体验,可对每段视频最多10秒的内容进行编辑。🎬创意无限:从漫画到游戏,你的视频由你定义🧩🎮通过该功能,可以:将日常视频变成一部漫画故事把自己融入一幅复古漫画插图将阴雨天拍摄的画面转化为带有闪烁星光、珠光模糊和柔焦效果的梦幻光影大片或者进入一个电子游戏世界,拥有荧光特效与战斗装束所有这些创意转换,只需轻轻一点即可完成。📲即刻分享你的作品到社交平台📱📸编辑完成后,用户可通过:Edits或MetaAI应用直接分享到Facebook和InstagramMetaAI应用或Meta.AI网页端分享到Discover动态发现页面让创意作品被更多人看到,与朋友、家人和粉丝们一起分享精彩瞬间。🎨激发创造力,赋能创作者社群🧠👩🎨该功能的推出,旨在鼓励用户自由发挥创意,制作有趣又有吸引力的视频内容。无论是重新演绎家庭记忆,还是探索新的娱乐方式,这项AI视频编辑技术都能带来全新可能。同时,它也有望改变创作者在平台上生产内容的方式。开发过程中专门与多位创作者合作,了解哪些提示词最能吸引受众。由于功能已深度集成于Edits应用,它可以无缝融入整个创作流程。🔬AI媒体生成技术的发展路径🧪🧠📊此次发布的AI视频编辑功能,是持续推动AI视频生成技术发展的成果之一。回顾技术演进历程:2022年:推出Make-A-Scene模型,支持图像、音频、视频和3D动画的生成。随后借助扩散模型(diffusionmodels),构建了LlamaImage基础模型,实现了更高品质的图像与视频生成,以及基于指令的图像和视频编辑。去年:整合多项能力,推出MovieGen模型,可根据简单文本输入生成定制视频和音效,还能对现有视频进行编辑。如今,这些研究成果正逐步转化为面向大众的生成式AI工具,让用户能够:更自由地表达自我更便捷地与他人建立联系实现脑海中的最佳创意
今年早些时候,Meta推出了AriaGen2,这是其研究型智能眼镜的最新一代产品。当时,Meta并未透露太多细节,但最近公司表示,这款设备将在明年某个时间点向第三方研究人员开放,并借此展示未来AR眼镜可能具备的功能。在一篇最新的博客文章中,Meta披露了更多关于AriaGen2的信息,包括其外观设计、音频系统、摄像头、传感器以及本地计算能力。尽管AriaGen2没有显示功能,因此无法实现完整的增强现实体验,但它所搭载的技术已经为未来的AR眼镜奠定了基础。更强大的计算机视觉能力未来全天候佩戴的AR眼镜最核心的需求之一就是强大的计算机视觉(CV)能力,比如对室内空间进行建模、识别物体等。在这方面,AriaGen2相比第一代有了显著提升:CV摄像头数量从原来的两颗增加到四颗;支持120dBHDR全局快门;视野范围扩大;双眼重叠视场达80°,大幅提升了3D跟踪与深度感知能力。此外,Meta还展示了AriaGen2在一个房间内运行SLAM(同步定位与地图构建)时的表现:新增传感器与更智能的本地计算除了视觉能力,AriaGen2还在传感器方面进行了升级,包括:经过校准的环境光传感器;嵌入鼻托的接触式麦克风,用于在嘈杂环境中捕捉更清晰的语音;心率传感器(PPG),可采集生理数据。更重要的是,Meta表示AriaGen2的本地计算能力也大幅提升,其定制协处理器支持实时机器感知任务,包括:视觉惯性里程计(VIO),实现6自由度空间追踪;高级眼动追踪(注视方向、双眼会聚、眨眼、瞳孔大小等);3D手势追踪,提供精确的动作数据和标注;SubGHz无线电技术,可在多设备之间实现亚毫秒级时间同步。极致轻量化设计尽管集成了多项前沿的计算机视觉、机器学习和传感技术,AriaGen2的重量却仅有74–76克,非常接近普通眼镜的使用体验。相比之下,一副普通眼镜的重量通常在20–50克之间,具体取决于材质和镜片厚度。Meta提供了8种尺寸选项,以适应不同用户的头部和鼻梁形状。同时,这些眼镜也像传统眼镜一样可以折叠,便于收纳和携带。值得注意的是,Meta尚未公开说明电池续航表现,不过眼镜右侧臂上配备了USB-C接口,可能支持外接电源或电池包。人类感知×机器视觉的融合AriaGen2不仅能追踪和分析用户所处的环境,还能捕捉用户对该环境的主观感知反应。例如在演示中,它能够记录用户准备咖啡时的眼球注视和心率变化--这些数据可用于判断用户对外部刺激的反应。除此之外,它还能通过CV摄像头、磁力计、两个惯性测量单元(IMU)和气压计,记录用户在空间中的相对位置与移动轨迹。对于以人为中心的研究项目来说,这是一个巨大的数据宝库;而这类信息,也正是未来AR眼镜将需要收集的关键数据。向AR眼镜迈进的关键一步Meta表示,AriaGen2"将为定义下一代计算平台的技术创新铺平道路",这个平台无疑就是AR。尽管要真正取代智能手机还有很长一段路要走,但Meta正在通过Aria和原型机Orion(一款连接无线计算单元的AR设备)不断推进这一目标。目前市面上已有一些面向消费者的AR眼镜,例如XREALAir2Pro,但在轻薄化、长续航和强大性能之间取得平衡仍然极具挑战。Meta首席技术官兼RealityLabs负责人AndrewBosworth表示,基于Orion的AR设备将在本十年内推出,价格预计将高于智能手机。即将亮相CVPR2025预计很快会有更多关于AriaGen2的消息披露。Meta已确认将在2025年6月11日至15日于纳什维尔举行的CVPR2025上展示该设备,并提供互动演示。届时,我们将带来更多来自现场的详细报道。
日本Expo2025,感受这场传统世博会在新时代背景下的转型,并尝试将其与同步推出的虚拟展馆进行对比。这不仅是一场科技与文化的盛宴,更是一次关于"人如何连接"的深刻反思。Expo2025是一场将历史悠久的世界博览会概念带入当代的作品。自19世纪末以来,世界博览会一直是国家和企业展示实力与科技进步的重要舞台。它融合了软性政治宣传与科技展览的元素,参观者会看到阿童木探索iPCS细胞与未来医疗,星形吉祥物歌颂"自由之地"美国(以及AI),甚至还能在一个展位里体验《怪物猎人》的XR展示。这些活动的历史意义不可小觑。法国为1889年世博会建造了埃菲尔铁塔;其他博览会则见证了摩天轮和移动电话的首次公开亮相。简而言之,这些活动不仅反映了当下世界的面貌,也展示了人类对未来的想象。Expo2025在2018年赢得举办权后,便开始筹备。而真正动工建设时,却正值新冠疫情肆虐和元宇宙热潮兴起之时。早在疫情爆发前,日本就为Expo2025设定了"设计我们生活的未来社会"的主题。人们探讨如何构建一个可持续发展的未来社会,在这个社会中,人类既能重新思考当前的生活方式,又能保持繁荣发展的潜力?官方宣传材料反复强调,这将是"未来社会的实验室",是一个专注于拯救、赋能和连接人类的实验平台。如果是在2020年封锁期间构思这样一个大型展示项目,为什么不设想一个"虚拟世博会"呢?在线下,所有人都可以前往日本大阪亲自参观Expo2025;而对于无法亲临现场的人们来说,这也将是有史以来首个通过网络全球开放的虚拟世博会,让各国和企业足不出户就能在全球舞台上展示自己。考虑到日本许多活动至今仍在拥抱虚拟社区,这种虚拟世博会的概念并非过时产物,也不落后于日本其他组织的努力。线上交流和活动并没有随着解封而消失--大家仍在使用Zoom,东京电玩展也在恢复线下举办的同时继续保留其虚拟版本。不同的是,如今人们更渴望面对面的互动和真实的乐趣,而不是一直盯着屏幕。如果这个名为"VirtualExpo:YumeshimaIslandsintheSky"(以大阪人工岛Yumeshima命名)的虚拟展馆要在这样的环境中取得成功,它就必须提供一种现实中难以实现的独特体验,哪怕是在实体展会上也是如此。虚拟展馆的技术支持与初步印象虚拟展馆支持手机、PC和VR设备访问。当有人正式参观前几天提前进入系统时,第一印象相当不错。它远不止是一个普通的VRChat场景,而是一个独立的免费应用程序,内容丰富到足以被称为一款完整的游戏,而非附属体验。登录Expo账号后,用户首先会进入一个角色创建界面。虽然面部样式、服装、发型、发色和肤色选择有限,但依然提供了足够的个性化空间。接着他们会被投放到应用的主广场,在那里可以遇见可爱的虚拟角色Soramin,然后开始自由探索整个展馆。令人惊喜的是,这里并不是一个静态的空间。虚拟展馆的日程安排与现实中的世博会同步进行。如果现实中正在举行某个国家日,虚拟世界也会挂满对应的国旗。作为一个面向全球观众的世博会,它还内置了多语言语音和文字聊天翻译功能,让人们能轻松与来自世界各地的玩家交流。从纸面描述和初次启动应用的体验来看,它确实像是一场真实而独特的虚拟活动,充满了各种可做之事和可供探索的展馆。然而,当深入了解后,会发现一些问题。"合同式参与"现象与展馆局限这个虚拟展馆给人一种"合同义务"的感觉,明显可以看出很多国家只是被迫参与,后来才意识到虚拟部分并非优先事项。每个虚拟岛屿上都设有几个展馆和虚拟体验区,鼓励玩家步行探索。Soramin和世博会的官方吉祥物MyakuMyaku会在开放区域进行一些可爱的互动活动,让整个环境显得更加生动。有些还会赠送表情动作或新服饰。这些虚拟岛屿几乎完全按照实际展馆的布局1:1复刻,这对从虚拟转现实参观的人来说非常有帮助。事实上,有人在虚拟展馆中逛了一圈后,形成了清晰的心理地图,当他几天后亲自前往大阪参展时,这个心理地图真的帮到了他--因为现实中的Expo并不容易导航,甚至在他待了整整10小时之后,仍然发现了之前没注意到的新展馆。然而,展馆本身的体验可以说是参差不齐。许多展馆根本就是"空壳",玩家加载了半天,结果只看到一个空荡荡的房间,墙上贴着一张模糊的展馆效果图和一段文字介绍--而这正是实体展馆中实际展出的内容。虽然每个虚拟展馆的外观都高度还原了现实中的建筑,看起来极具吸引力,但大量展馆只是套用了一个模板化的结构。在大约40个虚拟展馆中,超过50%都是这种复制粘贴式的展示方式。这就像一个人兴致勃勃地去参加一场派对,却在即将进门时发现门被锁上了。当然,也有一些国家尝试做出一些特色内容。例如莫桑比克展馆就设计了一段导览式体验,展示了该国的文化与发展,并配有高质量的照片和演讲音频。离开时还能获得一套专属服饰作为奖励。不过,这类展馆也暴露了另一个问题:它们往往依赖YouTube视频来呈现无法通过简单3D模型或文本框表达的内容,而这些视频在应用中运行得并不稳定。少数展馆真正拥抱虚拟媒介也有少数展馆真正理解了虚拟空间的可能性,并在此基础上打造了与现实展馆主题一致但形式新颖的体验。在Expo2025的众多国家与企业展馆之外,还有六个"特别展馆"(SignaturePavilions),由日本各地的艺术家与教授主导设计,旨在挑战博览会主题,并展现他们的创意理念。例如:石黑浩教授(IshiguroHiroshi)探索了生命的未来;内井昭仁艺术家(OchiaiYoichi)则通过一项实验性展示质疑数字技术下的人性本质:系统会扫描参观者并生成高精度的数字化分身,供人交流互动,从而提出一个问题--在AI和数字化时代,我们如何识别并保留"人性"。但在虚拟展馆中,这项核心功能无法实现。于是他们转而设计了一种令人眩晕的体验,试图重现那种让人迷失自我、反思身份的氛围。虽然结构混乱且略显恐怖,但它确实传达了原本意图。像这样的展馆,或是松下展馆将儿童绘画变成动态作品的创意展示,才真正体现了虚拟展馆应有的潜力。遗憾的是,大多数展馆并没有朝这个方向努力。如今的VirtualExpo更像是一个充满破碎梦想的空间,甚至没有承诺中那些可以一起交流的参观者,使得整个体验显得格外冷清。特别讲座直播:唯一的亮点之一一个值得一提的优点是,用户可以在虚拟展馆中观看现实中正在进行的专题讲座直播。为了配合博览会的主题与各国国家日活动,主办方偶尔会邀请嘉宾讨论可持续发展、社会责任等议题,比如地震后社区重建、水资源保护等。可以在虚拟展馆中观看这些直播,尽管它们本质上只是YouTube直播流,甚至可以直接通过网页观看,无需进入应用。理想很美好,现实仍不足让无法亲临大阪的观众也能在线参与世博会的想法是美好的,加上虚拟角色定制与社交功能的设计,似乎能带来一种独特的沉浸感。但在现实中,很多展馆提供的只是空房间或YouTube视频,远远谈不上是一场"世界博览会"的体验。事实上,在亲身参观完实体世博会之后,有人更加坚定地认为,这个VirtualExpo展示了当前元宇宙愿景中最根本的问题之一。即便这个应用能完美还原博览会的虚拟形态,它仍然忽略了最重要的一点:人类之间那种自发性的连接与探索,目前还无法通过虚拟手段复现--而且也许永远都无法完全复制。但这也没关系。实体展会的魅力:无法替代的真实瞬间记得那是一个温暖多云的星期四,有人满怀期待地前往Expo2025。为了不错过任何精彩,他提前做了详尽的研究,列出了必看展馆清单,甚至还预约了一些需要提前登记的场馆。法国有经典艺术展,波兰带来了肖邦音乐表演,当天还有一个太鼓节仅限那天举办!当时他真的很兴奋!然而几乎一到现场,他的计划就被打乱了,只剩下几个提前预约的展馆。但正是这种随遇而安的心态,让他度过了更有意义的一天。最大的快乐往往来自于最意想不到的地方。他在等待第一个预约的间隙,无意间走进了马来西亚展馆。入口处的小平台上,几位舞者正在表演传统的马来舞蹈,动作优雅流畅,男女舞者之间的互动充满趣味。虽然他对这一领域并非专家,但那种从脚跟到脚尖轻盈跳跃的动作,真的令人着迷。演出快结束时,舞者们冲进人群,把他和其他来自世界各地的观众拉上舞台一起跳舞。短短五分钟里,大家一起学习基本舞步,模仿他们的动作,最后全场欢呼雀跃,不同语言、不同文化的人们相互拥抱、鼓掌,因为他们刚刚以陌生人的身份共同完成了一场即兴共舞。虚拟体验的局限:无法复制的"偶然"虚拟世博会即使做到极致,也只是开发者所能设想和编程进去的内容。用户依然只能在设定好的范围内进行互动,无法真正自由发挥。他会开始以任务清单的方式看待展馆,而不是出于兴趣去探索。VirtualExpo甚至鼓励这种行为,因为它承诺完成所有展馆浏览后会有奖励。只有亲身经历实体展会,他才真正了解了一些之前知之甚少的国家,也收获了许多本不可能拥有的体验。在Expo2025,他吃了正宗非洲咖喱,还在排队时与一位陌生人聊起了彼此的生活故事。而在VirtualExpo中,他只是坐"太空列车"看一堆AI宣传片,还收到了NFT铸造邀请。技术不能取代人性的本质有人喜欢VR,也相信它能在某些方面超越传统媒介。但技术永远无法取代让我们成为"人类"的那些东西--哪怕只是一个偶遇的微笑,一次被人拉去跳舞的手感。科技可以增强生活体验,但如果用AI聊天机器人代替友谊,用虚拟聚会代替真实见面,那么所失去的,恰恰是人性中最宝贵的部分:那种不可预测、无法编程的随机性。是否有一天,某个平台能捕捉到我们在街头漫步、向他人微笑时那种自发的情感联结?能否再现当别人拉着你的手带你跳舞时,指尖的触感?也许可以,但现在还做不到。如果我们继续沿着当前这条名为"元宇宙"的道路走下去,也许永远也无法做到。VirtualExpo无法复制真实的喜悦,因为真正的喜悦和意外,从来不在计划之中。
在刚刚结束的GoogleI/O大会上,Google展示了它对AndroidXR的愿景。但你可能没有意识到的是:运行在头显上的"AndroidXR"和运行在智能眼镜上的"AndroidXR",其实是两个完全不同的操作系统。这个名字最早是由《商业内幕》(BusinessInsider)记者HughLangley在18个月前首次报道出来的。据他当时的独家消息,Google内部将用于头显的操作系统称为"AndroidXR",而用于智能眼镜的轻量级版本则被称为"AndroidmicroXR"。但现在,事情变得有些模糊了。从内部命名到公开宣传:Google把两套系统统一叫"AndroidXR"自Google去年12月正式公布这两个平台以来,官方却开始将它们统称为"AndroidXR"。例如:三星的设备被称为"AndroidXR头显"Google自己展示的智能眼镜原型(在TED和I/O上亮相的带小HUD显示的眼镜),则被称为"AndroidXR眼镜"这种命名方式不仅令人困惑,而且容易误导公众。因为实际上,它们是两个完全不同、定位截然相反的操作系统平台。两者之间到底有什么区别?运行在头显上的AndroidXR:是你在手机或平板上熟悉的Android体验的延伸;完全独立运行,具备完整的PlayStore支持;提供完整的开发者SDK,支持原生应用开发;更像是一个"便携式VR/AR操作系统"。运行在智能眼镜上的AndroidXR:是一个高度裁剪、功能受限的Android版本;目前Google尚未公布任何SDK或平台细节;实际运算大多依赖连接的智能手机,类似于Ray-BanMeta眼镜的工作模式;更像是一个"轻量级信息显示终端",而非完整计算平台。虽然二者共享同一个AOSP(Android开源项目)内核,并且都集成了部分Google服务,但除此之外,它们几乎没有任何相似之处。类比理解:如果AppleWatch叫做"iOS设备"想象一下,如果苹果把AppleWatch称作"iOS设备",或者Meta把Ray-BanMeta眼镜说成运行HorizonOS,那是不是也会让人感到迷惑?这就是目前Google对"AndroidXR眼镜"的定义所带来的问题--它让外界误以为这些设备拥有和头显一样的功能与生态支持。Google的策略动机是什么?我推测,Google之所以有意模糊这两者的界限,可能是出于以下几点考虑:Ray-BanMeta眼镜的成功让穿戴式AR成为消费市场的热门话题;Meta的Orion原型引发了大量关注;初代AppleVisionPro面临市场冷遇,也让Google不想把自己归类为"高端头显厂商"。因此,Google很可能希望借助"AndroidXR"这个统一品牌,制造一种"我们已经全面布局XR生态"的印象,而不是明确区分这两个平台的不同定位。混淆的风险:XrealAura让"眼镜"概念更加模糊就在Google发布其智能眼镜的同时,Xreal推出了ProjectAura,一款外观类似太阳镜、实则通过外接计算模块运行"头显版AndroidXR"的设备。这就意味着,"AndroidXR眼镜"这个词现在有了双重含义:一类是面向消费者的轻量级智能眼镜(如Ray-BanMeta)一类是更接近头显形态、功能强大的"类眼镜设备"(如XrealAura)换句话说,你未来可能会看到两种都叫"AndroidXR眼镜"的产品,但它们背后的操作系统、功能、应用场景却完全不同。对用户和开发者的潜在影响当一个开发者宣布他们推出了一款"面向AndroidXR"的应用时:用户是否能明白,这款应用并不能在Ray-BanMeta或WarbyParker合作的眼镜上运行?开发者是否清楚,他们的"AndroidXR应用"其实只能在头显设备上使用?对于像你这样的VR52读者来说,这些差异或许一目了然。但对于普通消费者而言,XR设备之间的区别还远未普及,这种模糊命名只会加剧认知混乱。解决方案建议:给眼镜平台起个新名字!要解决这个问题其实很简单:给智能眼镜平台起一个全新的名字。比如:GlassOS(曾用于初代GoogleGlass)GlassesOS(类似WearOS的命名逻辑)这样可以清晰地划分出两个平台的边界,也便于用户和开发者理解不同设备的能力差异。结语:营销vs透明度的博弈截至目前,还没有任何一家硬件厂商真正发布过"AndroidXR"设备。也许等到产品正式上市后,Google会通过市场营销和公关手段,澄清这两个平台的区别。但从目前的信息来看,我并不乐观。Google显然更倾向于制造"统一生态"的幻觉,而非清晰的产品定位。如果你是开发者、媒体人或早期采用者,了解这一区别至关重要。因为它不仅关系到你能做什么、不能做什么,也决定了你对未来XR生态发展的判断方向。
据科技媒体LowPass报道,曾创办在线手工艺品交易平台Etsy的联合创始人兼前CEORobertKalin,目前正在开发一款外形类似放大镜的手持式混合现实(XR)设备。这款设备来自Kalin创立的新创公司DoppleWorks,据称其产品代号为Loop。最近,该设备通过了美国联邦通信委员会(FCC)的认证流程,意味着它可能已经接近正式发布。📄FCC文件透露有限信息:IP65防水、支持WiFi/蓝牙/NFC通常情况下,FCC提交的应用文件中会包含设备的基本规格信息,但此次关于Loop的文件内容被大量涂黑处理,仅披露了以下几点关键信息:是一款便携式、电池供电设备支持Wi-Fi和蓝牙连接具备NFC功能设备防护等级达到IP65(防尘+防泼溅水)这意味着Loop可以在日常使用中应对一定程度的灰尘和液体接触,适用于室内外多种场景。🔍专利曝光外观设计:手持式空间计算设备虽然目前尚未有官方图片流出,但DoppleWorks曾提交一项名为《专用手持空间计算设备》的专利申请,并附上了多张设计图及使用场景描述。从专利图来看,Loop可能具备以下特性:设备可垂直放置于一个专属底座上,推测这可能是主要的充电方式;内部或搭载6自由度(6DOF)追踪传感器、麦克风、摄像头、扬声器;还可能支持眼动追踪技术;但专利中并未提及镜头系统,因此尚不清楚用户是将其贴近眼睛使用(类似单筒望远镜),还是像放大镜一样保持一定距离观看。🎮应用场景广泛:教育优先,兼顾游戏娱乐从专利覆盖的内容来看,Loop并不局限于单一用途,而是涵盖了包括:游戏教育儿童互动学习等多样化场景其中,教育领域被认为是该设备最有可能率先落地的方向。DoppleWorks还提交了一项商标申请,将公司定位为一家专注于开发"电子学习玩具"的科技公司。👨💻团队背景揭秘:VR老兵集结,硬件经验丰富LowPass的进一步调查发现,DoppleWorks的创始团队成员大多拥有深厚的VR行业背景,其中包括多位曾参与过知名社交VR平台的工程师:MozillaHubsAltspaceVR这两款平台虽已关闭,但在早期社交元宇宙探索中具有重要地位。公司的CTOGeoffChatterton更是资深硬件专家,曾在PayPal担任硬件负责人,此前还在Apple、Dell等公司任职,并参与过智能手表初创公司WimmLabs的开发工作--该公司后来被Google收购。🧩设计思路独特:无头显、无镜头,有何优势?如果Loop最终确实采用"放大镜式"的非头戴设计,那它将与传统XR头显形成鲜明对比:✅优势:不需要考虑头显适配问题,儿童也能轻松使用;设计简洁,便于短时间快速体验;可作为"魔法窗口",引导用户进入混合现实世界。❌潜在挑战:若设备更像是"手持AR屏幕",那它的体验可能与智能手机AR应用相似;缺乏沉浸感,需依赖内容创新来体现差异化。🤔总结:Kalin再出发,能否颠覆XR教育市场?RobertKalin此次回归科技界,选择了一个极具挑战性的方向:打造一款面向儿童与教育市场的混合现实设备。Loop如果成功推出,或将开辟一条不同于主流头显路线的XR新路径。而DoppleWorks所拥有的跨界人才组合、教育导向的产品定位,以及对用户体验的深刻理解,也让外界对其未来表现充满期待。
作为全球最具影响力的扩展现实(XR)行业盛会之一,AWEUSA2025将于6月10日至12日在美国加利福尼亚州长滩市正式拉开帷幕。我们作为今年大会的官方独家媒体合作伙伴,也提前获得了多家参展公司的展示信息,并为你带来第一手剧透。本次展会涵盖增强现实(AR)、虚拟现实(VR)、混合现实(MR)等前沿技术,吸引了来自全球的顶尖企业与开发者。如果你正计划前往现场或关注XR技术的最新趋势,以下是几家你绝对不能错过的参展公司。🧲CREAL:轻量级光场显示,让虚拟更真实CREAL将在本届AWE展示其最新的Clarity光场显示屏。这款产品在今年初发布后,团队持续对空间光调制器进行创新升级,进一步提升了图像质量。参观者可以通过两种方式体验这项技术:佩戴专用头显设备使用桌面型眼镜装置这意味着,你可以亲身感受到光场技术带来的更自然、更沉浸的视觉体验--无论是在AR还是VR场景中,都更接近人眼的真实感知。🕶️XREAL:AR眼镜+模块化配件,打造空间计算新体验XREAL作为近年来炙手可热的AR品牌,将在AWE展出其大受欢迎的XREALOne系列AR眼镜,并搭配其强大的空间计算功能。此外,还将首次公开演示其全新配件--XREALEYE模块化摄像头。这是专为XREALOne打造的外接设备,能显著提升环境感知能力与交互体验。不仅如此,XREAL还将首次线下展出一款尚未公布的全新配件,值得期待!🔧ForgeFX:用XR训练高风险行业的"实战高手"ForgeFXSimulations将在AWE2025上推出其新一代XR训练平台--VORTEX,专门面向那些传统培训手段难以覆盖的高风险、高后果场景。该平台基于ForgeFX自主开发的ForgeSIM引擎构建,具备以下核心能力:超写实LiDAR地图环境GIS支持的沙盘模拟系统语音激活专家问答系统实时性能分析与AI辅助决策目前已在JPEO-CBRND的化学、生物、放射、核应急响应(CBRN)项目中完成试点应用。除此之外,ForgeFX还将推出针对MetaQuest3PCVR平台的增强版水平定向钻井模拟器(HDDSimulator),与VermeerCorporation联合开发,新增了此前从未模拟过的安全关键任务模块:"自动钻杆更换系统"。在展位#346,观众还可以亲身体验多达六种互动训练模拟系统,包括:JLGAccessReadyXR培训系统SomeroS-22EZ激光整平机模拟器CBRNDHoloTrainerTrumpf激光切割模拟器ForgeFX挖掘机操作模拟器Ocuweld焊接VR模拟器这些系统充分展示了ForgeFX在设备集成式沉浸训练解决方案领域的领先地位。🎯PICO:企业级MR头显来了!Pico4UltraEnterprise首秀PICO将在AWEUSA2025上首次亮相其最新发布的PICO4UltraEnterprise--这是一款专为企业用户设计的一体式混合现实头显。该设备搭载了先进的MR功能,并配备PICOMotionTracker,支持全身体追踪和物体识别,适用于制造业、教育、医疗等多个领域。PICO已经成功拓展至:教育培训企业培训场馆娱乐(Location-BasedEntertainment,LBE)展会期间,参观者将有机会亲自体验这些实际应用场景。此外,PICO还设置了私密洽谈区,方便客户深入交流如何借助PICO解决方案加速企业发展。同时,PICO将举办两场主题演讲:《释放LBE潜力:PICOXR解决方案规模化实践》《赋予空间开发者超能力:WebSpatial与SpatialML》📅不容错过的年度XR盛宴AWEUSA2025是观察XR行业未来方向的重要窗口。从消费级AR设备到企业级VR培训系统,各大厂商都在用实际行动证明:XR正在从概念走向落地,成为推动各行各业数字化转型的关键力量。如果你也对这场盛会充满期待,欢迎在评论区留言告诉我们你最想看到什么内容!
2025年6月5日,高德地图旗下高德开放平台正式推出智能眼镜解决方案,标志着其在空间计算与智能穿戴领域的技术创新迈入全新阶段。作为阿里巴巴集团旗下的专业出行和位置服务解决方案提供商,高德地图依托AI大模型、北斗高精定位技术,并融合创新性的Planner-Executor架构理念,率先打造了全球首个集"感知、规划、执行、表达"于一体的全链路AI导航智能体--NaviAgent。这一突破性成果不仅重新定义了智能出行的技术边界,也为行业生态伙伴的深度协同提供了坚实的技术底座。🤝携手行业领军者,共建"AI+AR"导航生态目前,高德开放平台已与多家AR领域头部企业达成战略合作,包括:Rokid雷鸟创新逸文科技星纪魅族围绕智能眼镜终端,双方联合推出了基于NaviAgent的AR导航应用,共同构建以"AI+AR"为核心的下一代导航生态体系。🧠深度场景化Agent能力:导航不止是路线指引高德智能眼镜解决方案深度融合本地生活服务与导航功能,实现从"路径引导"到"场景服务"的跃迁:1.结构化信息查询通过AI能力整合海量数据资源,提供多维度的深度信息服务,如:用户评分榜单排行门票价格开放时间等帮助用户在移动场景中快速获取关键决策信息。2.智能语音交互系统支持复杂指令输入,例如:路径偏好设定实时语音添加途经点查询剩余行程时间等大幅降低操作门槛,提升使用便捷性。🚗高阶HUD导航体验:看得见的安全感基于高德地图导航生态与大规模数据基座,该方案实现了增强现实导航HUD(抬头显示)的智能化升级:动态感知实时路径后方来车预警红绿灯倒计时读秒天气、光照变化自适应提示这些功能显著提升了出行的智能性与安全性,尤其在骑行等高频移动场景中表现突出。例如,在骑行过程中,用户不仅可以:提前知晓并实时监测路况通过语音指令调整路线获取骑行公园推荐查看阴凉覆盖路段、坡度分析等贴心信息🏛️空间感知技术壁垒:让旅游导览更"懂你"在空间感知领域,高德同样构建了领先的技术优势。智能眼镜解决方案结合通义大模型与多元融合算法,可实现对地点与建筑物的精准识别与语义理解。在旅游场景中,设备能够自动识别景点,并触发AR导览解说;用户还可通过语音提问,实时获取相关历史背景、文化故事等内容,真正实现"走到哪,讲到哪"。🔧产业链协同创新,推动产品快速落地高德智能眼镜解决方案的快速迭代与产品化,离不开与合作伙伴的深度协同:Rokid在AR光学显示领域的深厚积累;雷鸟创新在消费级AR硬件市场的成熟经验;逸文科技与星纪魅族在智能终端设计与制造上的独特优势;这些力量共同构成了"软硬一体、端云协同"的技术闭环,为用户提供更加完整、流畅的智能穿戴体验。⌚拓展智能穿戴生态,赋能更多终端形态除了智能眼镜,高德也在同步推进智能手表解决方案的建设。该方案具备高度兼容性,支持:AndroidRTOS等主流操作系统并实现了与手机端一致的操作逻辑与界面风格,助力开发者快速接入,加速智能穿戴生态系统的全面升级。🚀展望未来:构建无缝连接的智慧出行图景未来,高德将持续深化与行业伙伴的合作关系,进一步优化AR导航技术的精准度与适用性,探索更多创新应用场景,包括:车载HUD工业AR远程协作室内导航等同时,通过打通手机、车机、手表、眼镜等多端设备,推动智能穿戴设备成为下一代人机交互的重要入口,为用户打造真正"无感切换、无缝连接"的智慧出行体验。
继VRGamesShowcase之后,一个新的VR开发者活动--VRDeveloperDirect即将上线!这次的特别之处在于:它不再只是走马观花式地展示一堆项目,而是要对三款来自不同工作室的VR新作进行深度剖析。其中一款已经确认是来自Flat2VRStudios的《RoboquestVR》,而另外两款作品则将在"未来几天内"陆续揭晓。主办方表示,这场活动将带来包括:游戏玩法实机演示幕后美术资源首次曝光各项目的最新开发进展现场与远程开发者访谈穿插进行目前还没有公布具体时长,但可以预见这会是一场干货满满的VR粉丝专属节目。VR展示季全面开启|暑期档看点不断随着各大厂商进入"夏季展示季",各种重磅游戏活动也接连登场:今天早些时候刚刚结束的是UnrealEngine2025状态发布会(6:30AMPT)Meta也正式加入今年的SummerGameFest,时间在6月6日当天晚些时候的IOInteractive展示会还带来了《杀手》系列的最新情报而这场VRDeveloperDirect将于美西时间6月10日上午9点(北京时间6月11日凌晨0点)在YouTube和TikTokLive直播,喜欢VR游戏的朋友记得调好闹钟!
近日,由前Oculus创始人帕尔默·拉基(PalmerLuckey)创办的国防科技公司安杜里尔工业(AndurilIndustries)宣布与Meta建立合作伙伴关系,双方将联合设计、制造并部署一系列面向美军及其盟友的扩展现实(XR)产品。根据官方声明,此次合作旨在为战场上的士兵提供更强的感知能力,并通过直观的操作界面实现对自主作战平台的控制。首批合作成果将包括一款名为EagleEye(鹰眼)的AR/VR战术头盔。关于AndurilAnduril成立于2017年,由曾在Facebook旗下Oculus任职的PalmerLuckey创立。他因政治捐款事件被Facebook解雇后,转向国防科技领域发展。该公司核心产品是Lattice系统,这是一个基于人工智能的软件平台,能够整合来自多种传感器和平台的数据(包括自家设备和第三方系统),自动生成统一的战场态势图,并自动识别关键目标和事件。此外,Anduril还开发了一系列无人作战系统,涵盖:自动哨塔侦察无人机巡航弹药(LoiteringMunitions)拦截器巡航导弹无人战斗航空载具(UCAV)甚至包括无人潜航器(UUV)目前,Anduril的估值已达到280亿美元,成为美国国防科技领域最具潜力的企业之一。接手IVAS项目|取代微软HoloLens的下一代AR战术头盔就在三个月前,Anduril宣布正式接管了美国陆军的IVAS(集成视觉增强系统)计划,该计划旨在为每一位士兵配备增强现实头盔,以显著提升其在战场上的态势感知能力。该项目最初由微软通过定制版HoloLens推进,但最终因性能与成本问题被替换。Anduril将其更名为SBMC(士兵任务指挥系统),并与Meta联合提交了一份技术白皮书,标志着双方合作的正式开启。EagleEye:集成了Meta尖端光学技术的未来战甲在2月宣布接手IVAS项目后不久,Luckey在一次采访中首次披露了这款新型头盔--EagleEye。他表示,这是一款"集成了防弹外壳"的模块化头盔,能赋予士兵"超越人类的感官"。而在近日接受知名科技记者AshleeVance的专访时,Luckey表示,与Meta的合作实际上已经酝酿了近一年时间,而EagleEye正是双方共同开发的第一款产品。虽然两家公司尚未公开具体使用了哪些Meta的XR技术,但Luckey特别提到了Meta在碳化硅光学镜片上的巨额投资。这种材料正是Meta最新AR原型机Orion所采用的核心组件之一。它实现了70度对角视野,同时保持轻薄便携。然而,目前生产光学级碳化硅的技术极其复杂且昂贵,尚无成熟的商业化供应链。正因如此,Meta曾在Connect2024上表示,如果Orion作为消费产品推出,售价将超过1万美元。尽管如此,这样的价格对于军方而言仍属可接受范围。更重要的是,如果Anduril和Meta能够建立大规模的碳化硅供应链,未来不仅能降低军用设备的成本,也可能加速这项技术向消费市场的普及。EagleEye的开放架构|模块化设计支持多厂商接入除了采用Meta的先进光学技术,EagleEye的另一大亮点是其高度模块化的开放式架构。Luckey强调,这款头盔可以兼容"多种不同类型"的显示系统,甚至包括那些并非与Anduril合作的厂商所开发的设备。他在采访中表示:"我看到的不是几千台或几万台设备的需求,而是整个军队的全面升级。因此我们所做的每一件事,都是为了构建一个能够真正规模化部署的架构。""每个军种、每个任务都会有不同的传感器、不同的视觉系统、不同的处理器配置。我们要做的,就是让这些系统尽可能轻便、尽可能低成本地服务于各自的特定需求。"Luckey与Meta的"破冰之旅"仅仅几年前,人们还难以想象Luckey会再次与Meta展开合作。2017年,他因向支持特朗普的非营利组织NimbleAmerica捐款1万美元而引发争议。当时这家组织仅发布过一张讽刺希拉里的广告牌,但媒体误传称这笔资金被用于资助网络喷子和种族主义表情包。尽管没有任何证据支持这一说法,Facebook内部压力迫使他被解雇。2018年,在美国参议院听证会上,扎克伯格曾明确表示,Luckey被辞退"并非因为政治立场"。去年初,时任MetaCTO的AndrewBosworth也在一次与Luckey和JohnCarmack的公开讨论中承认,他对当年事件的了解仅限于二手信息,并为此道歉。随后几天,Bosworth更进一步发表公开致歉信,表示自己"重新审视了整件事",意识到自己"此前的信息有误",并向Luckey致歉。Luckey公开接受了道歉,并指出,八年过去,当年推动他离职的人早已不在Meta。就在Bosworth道歉前几天,扎克伯格亲自邀请Luckey体验了Orion原型机。他还对《Tablet》杂志表示,他对Luckey"充满敬意",并希望未来能在更多项目上合作。双方高层表态|科技赋能国家安全在今日发布的联合声明中,MarkZuckerberg表示:"过去十年,Meta一直在致力于构建AI与AR技术,以推动下一代计算平台的发展。我们很自豪能与Anduril合作,将这些前沿技术带给那些捍卫国家利益的军人。"AndrewBosworth也补充道:"世界正在进入一个全新的计算时代,它将赋予人们前所未有的智能访问能力和感知延伸。美国国家安全也将从本土产业推动这些技术落地的过程中大幅受益。"PalmerLuckey则表示:"我很高兴能再次与Meta合作。在所有双用途技术(军民两用)可以改变美国未来的领域中,这是最令我兴奋的一个方向。我的使命一直是将战士们变成'技术魔法师',而我们与Meta正在打造的产品,正是朝着这个目标迈出的关键一步。"
据《商业内幕(BusinessInsider)》最新报道,Meta正计划在全球范围内开设更多线下零售门店,以进一步推动其虚拟现实(VR)设备和智能穿戴产品的销售与用户体验。目前,Meta在全球仅设有一家直营实体店--位于美国加利福尼亚州伯林盖姆(Burlingame),紧邻公司总部园区。该门店自2022年开业以来,主要用于展示并销售MetaQuest系列头显和Ray-Ban智能眼镜。在这家门店中,顾客可以亲身体验Quest设备,店内还设有专门的演示区域,配备一面巨大的墙屏,实时显示佩戴者在VR中的画面,并通过后置摄像头叠加用户的身体动作,让旁观者也能同步观看游戏过程,增强互动性与吸引力。从快闪店到永久门店:Meta零售策略升级在此之前,Meta也曾尝试过"快闪店"形式的临时零售体验,比如为早期产品OculusGo推出短期线下体验点。但根据《商业内幕》的报道,此次新规划的门店将采用长期运营模式,类似于现有的Burlingame旗舰店。不过,目前尚不清楚Meta具体计划开设多少家新门店,以及这些门店将在何时、何地落地。VR设备为何需要实体零售?自消费级VR市场在2010年代中期兴起以来,一个长期存在的挑战就是:虚拟现实是一种必须亲自体验才能真正理解的技术。然而,时至今日,仍有大量消费者从未接触过高质量的VR设备。此外,VR头显的使用体验因人而异:头型大小视力差异对重量分布的敏感度(尤其是鼻窦区域)这些因素都会影响用户对设备的舒适感,因此,在购买前进行现场试戴与体验显得尤为重要。而线下门店正是解决这一问题的关键渠道。苹果的线下优势对比作为Meta在空间计算领域的竞争对手,苹果已在全球拥有超过500家直营门店,这成为其推广AppleVisionPro的一大优势。苹果在多数销售VisionPro的门店中都提供了完整的体验流程,包括:店员会扫描用户的头部尺寸,推荐合适的头带与面部贴合配件提供定制镜片适配方案(适用于有近视需求的用户)自去年起,部分翻新或新开门店还专门设立了独立体验室,用于沉浸式演示这种高度个性化的服务模式,极大提升了消费者对高端VR/MR设备的认知与接受度。MetaCTO强调:提升销量与用户粘性是关键目标早在去年11月的一封内部员工信中,Meta首席技术官(CTO)就曾明确指出,公司当前的核心任务之一是提升Quest系列头显的销量、用户留存率与使用活跃度。而线下零售店正是实现这一战略目标的重要一环。它不仅有助于扩大品牌影响力,还能通过直观的沉浸式体验吸引潜在用户,提高转化率。随着AppleVisionPro等竞品加速推进线下体验布局,Meta也开始加大对实体零售的投入。未来,线下门店可能将成为VR/MR市场竞争的新战场。
曾经的VR探索者:Insomniac的VR历史回顾尽管Insomniac如今以《蜘蛛侠》《瑞奇与叮当》等传统3A主机大作为人熟知,但在被索尼收购之前,它曾是VR领域的先锋之一。从2016年至2019年,Insomniac受Facebook委托,为OculusRift平台开发了四款VR游戏:《EdgeofNowhere》一款第三人称手柄操作的冒险游戏,灵感来自H.P.Lovecraft的小说《疯狂山脉》,是Rift早期最出色的作品之一。《FeralRites》玩家可变身为动物的动作格斗游戏,反响一般,被认为是Insomniac在VR领域中较为失败的一次尝试。《TheUnspoken》一款PvP魔法对决游戏,专为初代OculusTouch控制器打造,至今仍被许多玩家视为史上最优秀的VR游戏之一。《Stormland》一款开放世界动作射击游戏,支持双人合作,是当时少有的AAA级VR作品,于2019年随OculusLink功能一同推出。这些作品不仅展示了Insomniac在VR叙事和交互设计上的潜力,也使其一度成为外界猜测"索尼是否会推动其进军PSVR"的焦点。被索尼收购后转向传统3A开发2019年,Insomniac被索尼正式收购,成为PlayStationStudios的一员。此后,工作室逐渐将重心回归到传统平面游戏开发上,陆续推出了《漫威蜘蛛侠》系列以及最新作《瑞奇与叮当:时空跳转》。目前团队正全力投入即将推出的《金刚狼》单机动作游戏,但该游戏尚未公布具体发售日期。Insomniac的这一战略转向,也让许多VR粉丝感到遗憾--原本被视为可能为PSVR2带来突破性作品的工作室,最终选择了远离虚拟现实领域。PSVR2生态现状:依赖第三方支撑自PSVR2于2023年发布以来,索尼主要依靠自家工作室推出首发阵容,包括:《HorizonCalloftheMountain》《GranTurismo7》VR模式而后续除了免费小游戏《MyFirstGranTurismo》外,几乎再未有第一方VR内容推出。整个平台的发展很大程度上依赖于第三方开发商的努力,如:《MetroAwakening》《Alien:RogueIncursion》Skydance的《Behemoth》IOInteractive的《Hitman:WorldofAssassinationTrilogy》VR版随着PSVR2价格从最初的$550逐步下调至当前的$350(限时优惠),市场接受度有所提升,部分开发者也开始考虑将MetaQuest平台的游戏移植到PSVR2上,例如近期的《GhostsofTabor》和《UNDERDOGS》。Yoshida曾公开致歉PSVR2表现未达预期就在Insomniac此次回应的四个月前,前索尼互动娱乐全球工作室总裁ShuheiYoshida(吉田修平)曾公开表示:"我为自己对PSVR2的判断失误而道歉。"这番话引发了业界对其未来发展的关注。然而,从目前来看,即便索尼降低了硬件价格并推动更多内容上线,像Insomniac这样的核心第一方工作室依然无意涉足VR领域。结语:InsomniacGames的正式表态,再次印证了这样一个现实:即便PSVR2已拥有一定基础的用户群和不断增长的内容库,索尼旗下最重量级的第一方工作室仍未将其视为优先发展方向。对于期待看到更多高质量PSVR2独占作品的玩家来说,这无疑是一个令人失望的消息。不过,随着独立开发者和第三方厂商的持续加入,PSVR2生态仍在缓慢成长。未来是否会迎来转折,仍有待观察。
"新"与"潮"正成为新消费主旋律,而支持多人社交的线下VR,无疑是其中的代表。如今,VR已从早期的技术验证走向规模化商用,设备更轻便、画质更高、体验也从"站桩式"迈向自由漫游和多人互动。AI、MR、大空间扩展技术的发展,以及内容叙事和运营模式的创新,让VR从视觉奇观升级为全感官社交事件,牢牢抓住年轻人对科技感、个性化与社交分享的需求。据IDC预测,2025年全球VR大空间市场规模将突破120亿美元,年复合增长率达58%。海外品牌如SandboxVR门店累计营收已超2亿美元。相较之下,国内部分厂商仍存在重数量轻质量、内容同质化、硬件落后等问题。在此背景下,Pico联合英特尔推出重磅线下大空间项目--《太空奥德赛》,目标打造世界级XR沉浸体验。项目亮点千万级投入,由Pico视频团队主导制作;沉浸戏剧导演陈文聪(曾参与环球影城、SleepNoMore)担任指导;基于PICO新一代一体机,结合英特尔AI算力,实现8K级画面表现;首次在大空间中引入多样互动玩法:驾驶飞船、潜行避敌、光剑战斗、AI对话等;玩家可实时获取剧情提示与太空知识,提升代入感与教育意义。剧情设定故事发生在2099年,人类已进入星际文明时代。玩家作为探索部队成员,将在火星遭遇突袭,并一路追击敌人至土卫6、嵌合星、钻石星,最终在高维空间展开决战,夺回反物质核心。体验详情时间:5月31日正式开放地点:北京超级合生汇时长:约36分钟场景:10大区域,17个沉浸场景,包括宇宙飞船、火星基地、海底遗迹、高维空间等《太空奥德赛》不再只是"尝鲜",而是真正意义上的高品质、多人协作、自由移动的VR太空舱体验。喜欢科技潮流、沉浸娱乐的你,不妨打卡体验这场未来之旅!
第十届中国VR/AR创作大赛暨第三届中国虚拟现实艺术发展论坛在京举办,共绘沉浸式内容新蓝图5月23日,第十届中国VR/AR创作大赛开幕式暨第三届中国虚拟现实艺术发展论坛在北京师范大学隆重举行。本次活动由中国网络视听协会、北京师范大学新闻传播学院及数字创意媒体研究中心联合主办,汇聚了来自业界与学界的众多嘉宾代表,共同探讨虚拟现实技术与艺术融合的前沿趋势与发展路径。大赛启幕:开启"XR+"新时代在开幕式上,第十届中国VR/AR创作大赛正式启动,并同步发布两个全新特别单元:"XR大空间"和"大学生XR健竞"。这标志着赛事在内容边界拓展与技术应用深度上的进一步升级,致力于打造更丰富、更具互动性的创作平台。中国网络视听协会副会长魏党军在致辞中指出,VR/AR技术正在深刻重塑视听创作方式,沉浸式内容已成为推动行业转型升级的重要力量。他高度评价了该赛事十年来在促进技术创新与内容融合方面所发挥的作用,并充分肯定了北京师范大学在青年人才培养与跨学科实践中的积极探索。北京师范大学新闻传播学院党委书记方增泉表示,作为大赛的重要发起单位之一,学院始终致力于将前沿科技与新闻传播教育深度融合,积极构建产学研协同机制,为虚拟现实艺术的发展注入源源不断的创新活力。虚拟现实艺术论坛:探索技术与艺术的交汇点随后举行的第三届中国虚拟现实艺术发展论坛成为本次盛会的一大亮点。论坛聚焦虚拟现实艺术的最新动态、发展趋势以及跨界融合的可能性。北京师范大学数字创意媒体研究中心主任周雯发表了题为《虚拟现实艺术发展动态》的主题演讲。她指出,随着数智互联网时代的到来,虚拟现实正加速与人工智能等前沿技术融合,为艺术创作带来了前所未有的媒介拓展与技术革新。未来,虚拟现实不仅是一种技术工具,更是塑造新型文化表达的新语言。HTC中国区业务总裁华晓枫则以《拥抱当前机遇》为主题发表演讲,强调当前正是中国XR产业发展的关键窗口期。他认为,"内容+技术"是驱动行业可持续发展的双轮动力,并展望了XR大空间在文旅、教育、商业等领域的广阔前景,认为其将成为未来沉浸式体验的主要载体与创新高地。此外,中国艺术研究院副研究员秦兰珺、众信数字文化总经理李铠良、VIMO维魔科技创始人兼威尼斯国际电影节获奖VR导演范帆等多位业内人士也围绕虚拟现实的内容生态、产业落地与艺术表达进行了精彩分享。创作展映嘉年华:多元作品展现科技与人文交融活动同期还举办了第十届中国VR/AR创作展映嘉年华,涵盖AI媒体艺术创作展、金铎奖优秀VR作品回顾展映、网易影核VR游戏体验等多个板块,全面展示中国VR/AR内容创作的丰硕成果。AI媒体艺术创作展集中呈现了由北师大师生创作的多组AI智能影像与AI生成绘画作品,主题涵盖"生态环保""心理健康""文化传播"等社会热点议题。观众不仅可以欣赏到这些富有创意的作品,还能亲身参与AI艺术创作过程,感受科技与人文之间的深度对话。艺术传媒学院展出的作品如《可生长的图景》《青缘幻行》《孤独星球签收了一个新快递》《MagicYou》等,展现了虚拟现实艺术在叙事性、交互性和视觉表现力方面的无限可能。在金铎奖获奖VR作品展映中,设置了"最佳剧情""最佳新闻""最佳游戏""特别单元""金铎佳作"五大主题展区,汇集了从第六届至第九届的VR精品内容,充分展示了近年来中国VR创作的艺术水准与技术进步。网易影核展区则为现场观众提供了高质量VR游戏体验,包括《勇拳冲锋》等极限动作射击类游戏,吸引了大量参与者亲身体验沉浸式娱乐的魅力。展望未来本届中国VR/AR创作大赛与虚拟现实艺术发展论坛的成功举办,不仅是对过去十年中国虚拟现实内容创作历程的一次总结,更为未来行业发展描绘了清晰蓝图。通过持续的技术创新、内容孵化与跨界融合,虚拟现实正逐步走向主流化、产业化与艺术化,成为推动文化传播、教育创新与产业升级的重要引擎。在AI、XR、5G等技术不断突破的背景下,虚拟现实艺术正迎来前所未有的发展机遇。我们有理由相信,在各方共同努力下,中国VR/AR产业将迎来更加辉煌的明天。
美国初创公司Doji最近宣布完成了一笔高达1400万美元的种子轮融资,资金将主要用于开发一款基于人工智能头像的虚拟试穿应用程序。本轮融资由知名风投机构ThriveCapital领投,SevenSevenSixVentures跟投。团队背景强大,名字也来源于创始人Doji成立于2024年,创始人为DorianDargan和JimWinkens。两人均拥有深厚的技术和人工智能背景:Dargan曾在Apple参与VisionOS的开发,并在Meta工作期间负责OculusQuest的开发者体验;Winkens则是DeepMind的前研究员,此前还在Google参与过生成式人工智能在消费产品中的应用开发。"Doji"这个名字正是从他们两人的名字中各取一部分组合而来,寓意着技术与创意的融合。核心功能:AI生成逼真虚拟形象,实现快速试衣目前Doji正在开发的应用程序,利用一种被称为扩散模型(DiffusionModel)的人工智能技术,根据用户上传的自拍和全身照片,在约30分钟内生成高度逼真的虚拟形象(Avatar)。借助这个虚拟形象,用户可以尝试不同的服装搭配,并直观地看到哪些风格最适合自己。未来,该应用还计划进一步提升互动性与实用性。投资人看好其社交时尚潜力ThriveCapital的投资合伙人MilesGrimshaw表示,Doji的应用有潜力让购物变得更加有趣。它不仅是一个虚拟试衣工具,还具备强大的社交属性,鼓励用户与朋友和家人分享穿搭风格。Doji的愿景也不止于"试穿"。团队希望打造一个集时尚、娱乐与社交于一体的平台。用户不仅可以使用自己的虚拟形象尝试不同服饰,还能将这些搭配结果轻松分享到社交媒体上。当前运营模式:邀请制+品牌定制推荐目前,Doji应用采用的是邀请制注册方式,尚未向公众全面开放。用户可以在注册时选择自己喜欢的品牌,系统会优先展示该品牌的相关服装。此外,用户还可以将自己的个人网站链接发布在平台上,方便他人查看衣服上身效果。技术优势:更自然的虚拟形象表现力Dargan表示,Doji的核心竞争力在于构建了一个让用户能够愉快探索服装的系统,以及具有高度拟人化表现力的虚拟形象--这是多年虚拟形象设计经验积累的结果。他指出,以往的虚拟试衣应用存在诸多限制,例如图像不够真实、对用户自我认知不足等问题。而Doji正在大力投入图像处理技术的研发,专注于提升用户的视觉体验和个性化匹配度。未来规划:加速试衣流程,打通购买闭环关于未来发展,Doji计划从以下几个方面进行优化:缩短试衣时间:进一步提升AI模型效率,加快虚拟形象生成与试衣过程;加入一键购买功能:未来用户无需跳转至外部网站,即可直接在应用内完成购买操作;解决"合身度"问题:虽然目前可以查看服装上身效果,但尚无法模拟尺寸、舒适度等实际穿着感受,公司正致力于通过算法优化来改善这一短板。目前支持80多个国家,但仍未公开上线目前,Doji应用已可在全球超过80个国家/地区使用,但仅限受邀用户访问。官方尚未公布向公众开放的具体时间表。此次融资所得资金将主要用于提升AI模型的准确性,同时拓展更多功能,以打造更智能、更沉浸的虚拟试衣体验。
VR52网成立于2015年,平台提供VR头显、AR眼镜、配件外设、厂商、测评、行业资讯、游戏与应用、展会活动等。