日本BiPSEE株式会社近日宣布,已完成针对抑郁症患者的VR数字疗法(DigitalTherapeutics)的具体临床研究,并计划于2025年正式启动临床试验。此次研究由该公司与高知大学医院联合开展,结果显示该疗法对传统药物难以治疗的"反刍思维型"抑郁症状具有积极改善效果,未来有望成为一种全新的非药物治疗选择。🧪依据《临床研究法》开展,研究对象为中重度抑郁症患者本次研究是根据日本《临床研究法》进行的一项由研究人员主导的临床前探索性研究。研究共纳入了50名受试者(其中有效病例47例),将其分为干预组(接受VR数字疗法)和对照组(仅接受常规药物治疗),并进行了为期8周的治疗期和4周的随访观察期。主要评估指标为衡量抑郁症严重程度的汉密尔顿抑郁量表(HAM-D)评分变化。结果显示:接受VR数字疗法的干预组抑郁评分显著下降对照组则未见明显改善这一结果表明,VR数字疗法对伴有"反刍思维"特征的中重度抑郁症患者具有良好的疗效。🧩抑郁症治疗难题:药物反应差,复发率高据统计,在首次服用抗抑郁药物的抑郁症患者中,仅有约三分之一产生有效反应,而超过60%的患者会出现复发。尤其是那些伴有"反刍思维"(反复出现负面想法、过度关注自我情绪)的患者,往往对药物治疗反应不佳。因此,开发一种安全、有效、可及性强的非药物疗法,已成为精神健康领域亟待解决的重要课题。💡BiPSEE的VR数字疗法(VRx)BiPSEE开发的VR数字疗法是一个为期8周的干预项目,旨在帮助患者减少反刍性思考行为。该项目融合了两种心理治疗方法的核心理念:元认知疗法(MetacognitiveTherapy)认知行为疗法(CBT)通过结合VR设备与智能手机应用程序的沉浸式练习,患者可以在虚拟环境中学习如何以客观视角看待自身的情绪和想法,从而建立更健康的认知模式。此外,整个疗程可在家中完成,既提升了治疗依从性,也减轻了医疗机构的负担。🏢公司背景:专注心理健康领域的数字疗法创新BiPSEE成立于2017年,总部位于东京涩谷,是一家专注于利用VR和AI技术开发心理健康解决方案的初创企业。其开发的抑郁症VR数字疗法已获得日本厚生劳动省列入优先审查项目,并获得了多个政府机构和私人基金的支持。公司目前已获得来自投资基金及地方金融机构的资金支持,持续推动VR数字疗法的研发和落地应用。📈未来发展:2025年启动临床试验,研究成果将发表论文作为下一步发展计划,BiPSEE正在持续与日本监管机构沟通协调,目标在2025年正式进入临床试验阶段。同时,相关研究成果也将整理成学术论文,面向全球医学界公开发布。🗣️合作方观点:数字化工具带来治疗新可能高知大学医学院神经精神病学系教授KazuiHiromitsu表示:"数字工具的引入不仅可以鼓励患者主动参与治疗,还能有效缓解治疗师在传统非药物干预中的心理压力。(略)本项研究特别注重减轻患者的时间与经济负担,因此选择了'居家使用VR'的方式进行治疗。我们期待VR数字疗法在未来能够成为治疗抑郁症的一种全新选择。"📌编者按:随着心理健康问题日益受到社会关注,数字疗法正逐步成为精神疾病治疗的重要补充手段。BiPSEE所推进的VR数字疗法不仅在技术层面展现出创新性,也在实际应用场景中体现出高度可行性。若能顺利通过临床验证,或将为全球数千万抑郁症患者提供一种全新的治疗路径。
美国初创公司DreamPark近日宣布完成110万美元种子轮融资,本轮融资将用于在美国市场拓展业务,与娱乐领域的热门知识产权(IP)展开合作,并进一步扩大其头显设备租赁服务。💼融资由LongJourneyVentures领投,FoundersInc.参投本轮投资由LongJourneyVentures领投,FoundersInc.参与投资。DreamPark致力于开发一种技术,能够将现实世界的物理空间转化为可多人共享的XR(扩展现实)体验。其核心技术是在现实空间中设置二维码等"接入点",用户通过佩戴XR设备或使用智能手机扫描这些接入点,即可在真实世界之上叠加数字信息,获得沉浸式的互动体验。这种模式无需用户自带特殊设备,便可实现多人同时参与的沉浸式场景。🎯成本低、部署快,无需建设永久设施DreamPark强调,其VR解决方案相比传统的固定式VR场馆具有显著优势:部署成本更低回本周期更短无需建设任何实体设施或永久性基础设施这一特性使其非常适合应用于商场、展会、企业活动等临时或半开放场所,快速构建沉浸式体验空间。📍已在加州落地项目,计划向全美扩展目前,DreamPark已在加利福尼亚州圣莫尼卡的第三街长廊购物区,以及洛杉矶县举办的一场博览会上推出了名为"超级冒险乐园"(SuperAdventureLand)的体验项目。接下来,公司计划将该模式推广至西雅图、橙县(OrangeCounty)等地,并拓展至更多企业活动和行业展会场景中。💰资金用途:扩大接入点、深化IP合作、强化团队建设此次融资所得资金将主要用于以下几个方面:在美国各地增设"接入点"与知名娱乐IP展开合作扩大头显设备租赁业务加强内容创作与技术开发团队🗣️CEO艾丹·沃尔夫:打造连接现实与虚拟的社区平台DreamPark联合创始人兼首席执行官AidanWolf表示:"我们正在打造一个平台,让人们重新找到聚集和互动的理由,在现实空间中建立真正的联系。"他补充道,公司的愿景是通过科技激活城市空间和社区活力,提供一种全新的社交和娱乐方式。DreamPark的管理团队成员曾在TwoBitCircus和SnapInc.等知名企业任职,具备丰富的XR、互动娱乐及硬件运营经验。公司将持续推动可扩展、模块化的沉浸式体验发展。📌编者按:随着XR技术的不断成熟,越来越多的创业公司开始探索轻量化、低成本、高灵活性的解决方案。DreamPark正是其中的代表。其无需固定设施、支持多人参与的沉浸式体验模式,为线下娱乐、商业营销和公共空间数字化提供了全新思路。未来,这类"即插即用"的XR体验有望成为主流趋势。
全球领先的360度全景相机制造商Insta360已在中国科技创新板(科创板)成功上市。此次IPO预计将募集资金约19.38亿元人民币,成为科创板过去17个月以来融资规模最大的一次上市事件。本次募集的资金将主要用于下一代智能拍摄技术的研发、人工智能算法的优化,以及面向不同行业的定制化影像解决方案开发。Insta360表示,未来将进一步加快全球化布局和产品迭代速度,巩固其在全景影像领域的领先地位。🧠创始人初心:用视频激发创意Insta360由JKLiu于2015年创立。他自幼对科技充满热情,创办公司的初衷是通过推动视频体验的演进,来支持全球创作者释放更多创意潜能。公司始终坚持核心技术自主研发,超过半数员工从事研发工作。目前Insta360拥有全球专利900多项,凭借AI图像稳定、360度视频自动合成等专有技术,在竞争激烈的影像市场中脱颖而出。🌍全球布局,产品覆盖200多个国家和地区Insta360的产品线涵盖:消费级360度全景相机运动相机AI网络摄像头专业级VR拍摄设备业务已拓展至全球200多个国家和地区,并通过与苹果和百思买(BestBuy)等国际零售商合作,进一步扩大其在全球市场的影响力。🎯面向消费者:2025年4月推出新一代"Insta360X5"针对个人用户,Insta360计划于2025年4月推出全新旗舰产品"Insta360X5"。该机型配备:1/1.28英寸大尺寸传感器三颗AI芯片支持拍摄360度8K视频即使在低光环境下也能提供出色的成像效果。同时,镜头可更换、防水等级达到IP68,提升了设备的耐用性和维护便利性。🏢面向专业用户:"Insta360Titan"打造高规格VR内容对于专业用户,Insta360提供了高端产品"Insta360Titan",它具备:11K分辨率拍摄能力微型四三系统(MFT)传感器8枚鱼眼镜头10bit色深支持能够输出自然细腻的360度影像,适用于影视制作、虚拟现实内容创作等领域。该设备售价为101687元,专为商业用途设计。🤖未来方向:AI自动拼接技术展望未来,Insta360将重点投入基于人工智能的自动拼接技术研发。通过自动识别拍摄对象轮廓并进行智能处理,减少人工校正步骤,从而显著降低后期制作的时间与成本。🗣️创始人发声:让创作更专注,工具更隐形Insta360联合创始人兼全球营销总监MaxRichter表示,此次上市将助力公司投资更多工具和合作伙伴,提升整体生态建设能力。创始人刘敬康表示:"我们的目标是打造一个让用户专注于创作、而无需意识到自己正在使用什么工具的环境。"Insta360表示,未来将继续深化与创作者及企业伙伴的合作,进一步扩大其在全球影像科技领域的影响力。
借助与Meta的合作,运动品牌Puma(彪马)近日推出了一项仅限MetaQuest平台的WebXR混合现实购物体验,专为其最新发布的篮球鞋AllProNitro打造。这项创新的虚拟购物功能,让用户能够在混合现实环境中查看这款球鞋的不同配色和尺码,并通过手势交互"拿起"鞋子,在1:1真实比例下从各个角度细致观察。📏脚型测量+搭配推荐,一站式虚拟购鞋体验除了视觉展示,该体验还内置了脚型测量工具,帮助用户确定最适合自己的鞋码。此外,还提供了搭配指南,建议用户应选择哪些Puma服装来与所选鞋款颜色相匹配,打造完整的穿搭风格。当用户完成配色和尺码选择后,可直接跳转至Puma官网的传统网页端页面完成购买流程。🔗如何访问?Quest用户可通过Horizon浏览器进入如果你拥有MetaQuest头显,可以通过HorizonOS内置的网页浏览器,访问网址:👉mr.puma.com虽然这项体验基于WebXR技术构建,理论上支持跨平台运行,但目前在AppleVisionPro上尚无法启动。Meta与Puma也明确表示,该体验是"专为MetaQuest打造"。📌编者按:随着WebXR和混合现实技术的发展,品牌正逐步将购物体验带入三维空间。Puma与Meta的这次合作,不仅是一次数字营销的尝试,更预示着未来零售可能走向更加沉浸式、互动化的新阶段。
去年,惠普(HP)宣布将成为首家推出基于GoogleBeam(前称"ProjectStarline")技术硬件的企业。如今,这款备受期待的设备--HPDimensionwithGoogleBeam正式亮相,目标直指高端企业市场,售价高达25,000美元。📸光场+AI技术融合:打造逼真3D远程协作体验HPDimension是一款结合了光场显示与先进AI技术的3D视频会议设备。它通过6颗摄像头和"尖端人工智能算法",实时捕捉并重建每位参与者的3D影像,呈现在一块65英寸的光场显示屏上。这台显示器能够呈现真人大小、具备真实深度感和色彩还原的3D影像,并支持自然的眼神交流,带来前所未有的沉浸式远程沟通体验。💻定价高昂,面向企业客户,Q4开始供货据HP官方消息,HPDimension将于2025年第四季度起向部分合作伙伴发售,每套设备售价为25,000美元。值得注意的是,该价格不包含GoogleBeam的软件授权费用,后者需另行购买。作为一款面向企业的高端协作工具,Dimension支持主流视频会议平台,包括:ZoomRoomsGoogleMeetMicrosoftTeamsCiscoWebex这意味着它不仅可以进行沉浸式的3D虚拟面对面交谈,也能无缝切换回传统2D多人会议模式,满足多种办公场景需求。🧠惠普高管发声:我们相信"真实的连接"才能激发真正的协作力HPInc.混合系统事业部高级副总裁兼总裁HelenSheirbon表示:"我们认为,真正有意义的协作建立在真实的人际互动之上。因此我们与Google合作,将HPDimensionwithGoogleBeam从实验室带入企业现实场景中。这项技术弥合了虚拟与现实之间的鸿沟,创造出栩栩如生的虚拟沟通体验,让我们彼此更加贴近。"🔬技术背景回顾:GoogleBeam的前世今生GoogleBeam最早源自2021年推出的实验性项目ProjectStarline,其核心理念是利用"光场显示技术"实现无需XR设备或眼镜辅助的3D视觉效果,模拟真实面对面交流的感觉。💡🕶️在实际测试中,HP发现使用Beam技术的视频会议带来了以下显著提升:39%的用户注意到更多非语言行为(如点头、手势)37%的参与者表示轮流发言更顺畅28%的用户反馈记忆保留率更高这些数据表明,Beam不仅提升了会议效率,也增强了人际沟通的情感连接。📌编者按:随着远程办公和混合协作成为常态,企业对"沉浸式沟通"的需求日益增长。HP与Google联手推出的HPDimensionwithGoogleBeam,标志着3D视频会议技术首次走向商用落地。尽管价格昂贵,但它为未来会议空间设定了全新的标准。
在AugmentedWorldExpo(AWE)2025年大会上,联合创始人OriInbar接受采访,分享了他对XR(扩展现实)行业发展的深刻见解。本届大会主题为"XRIsGoingMainstream(扩展现实正走向主流)",标志着AR/VR技术正在从概念验证阶段迈向大众应用。🔑核心要点总结:✅XR市场已进入主流化阶段AWE从2010年初创时仅300人参会,发展到如今拥有近5,000名参与者和250家参展商。📱移动AR已被广泛使用约三分之一美国人口通过手机使用AR,Z世代尤其活跃于社交、购物等场景。消费者正在等待更合适的硬件形态来获得更好的AR体验,如SnapchatSpectacles等智能眼镜。🌀视场角是AR发展关键VisionPro等设备提供约100度视场角,带来更沉浸的混合现实体验。当前VR头显在视场角和显示质量上优于现有AR眼镜,短期内仍是高质量AR的主要载体。🔮未来趋势:单一设备统一所有功能OriInbar预测,未来几年内将出现一种集AR与VR功能于一体的设备。光学技术方面,视网膜投影可能是终极解决方案,但目前仍面临技术挑战。🧩"ARonVR"成当前过渡方案VisionPro和Quest3展示了"在VR中实现AR"的可行性,Apple更将其定位为AR设备。这种架构被认为是向未来全功能设备演进的重要中间形态。💡行业瓶颈:设计语言重于硬件当前最大的挑战并非硬件性能,而是如何设计出既实用又不干扰现实的AR内容。随着优质MR设备普及,AR的用户体验正在快速成熟。📌总结: OriInbar强调,XR行业已经走过早期探索阶段,正逐步进入主流市场。虽然硬件仍在进化中,但真正的瓶颈在于内容与交互设计。未来设备将趋向融合,而"ARonVR"模式将成为通往终极目标的重要桥梁。
一项全新的生成式AI视频编辑功能现已在MetaAI应用、Meta.AI网站和Edits应用中上线。该功能旨在帮助用户更轻松地实现创意构想。用户现在可以通过多种预设的AI提示词(AIprompts),对短视频进行快速编辑,例如:改变服装搭配👕👗调整背景场景🌄🏙️切换整体风格🖼️🎮将视频转换为漫画、游戏画风等创意形式该功能已在美国及全球十几个国家和地区上线。🚀源自MovieGen模型,迈向AI视频编辑的重要一步💡🎞️这项新功能灵感来源于MovieGen模型,是推动AI视频生成与编辑技术落地的重要进展之一。今年晚些时候,平台将推出支持文本输入驱动的视频编辑功能。届时,用户只需输入文字描述,AI即可按照设定修改视频内容,实现"所想即所得"的编辑体验。🎨让每个人都能轻松创作高质量视频🧠📹该AI视频编辑工具的设计目标是:无需专业剪辑经验,也能制作高质量视频作品。使用流程非常简单:将一段视频上传至MetaAI应用、Meta.AI网站或Edits应用浏览并选择超过50种AI编辑提示词一键应用,系统将自动完成视频风格转换目前限时免费体验,可对每段视频最多10秒的内容进行编辑。🎬创意无限:从漫画到游戏,你的视频由你定义🧩🎮通过该功能,可以:将日常视频变成一部漫画故事把自己融入一幅复古漫画插图将阴雨天拍摄的画面转化为带有闪烁星光、珠光模糊和柔焦效果的梦幻光影大片或者进入一个电子游戏世界,拥有荧光特效与战斗装束所有这些创意转换,只需轻轻一点即可完成。📲即刻分享你的作品到社交平台📱📸编辑完成后,用户可通过:Edits或MetaAI应用直接分享到Facebook和InstagramMetaAI应用或Meta.AI网页端分享到Discover动态发现页面让创意作品被更多人看到,与朋友、家人和粉丝们一起分享精彩瞬间。🎨激发创造力,赋能创作者社群🧠👩🎨该功能的推出,旨在鼓励用户自由发挥创意,制作有趣又有吸引力的视频内容。无论是重新演绎家庭记忆,还是探索新的娱乐方式,这项AI视频编辑技术都能带来全新可能。同时,它也有望改变创作者在平台上生产内容的方式。开发过程中专门与多位创作者合作,了解哪些提示词最能吸引受众。由于功能已深度集成于Edits应用,它可以无缝融入整个创作流程。🔬AI媒体生成技术的发展路径🧪🧠📊此次发布的AI视频编辑功能,是持续推动AI视频生成技术发展的成果之一。回顾技术演进历程:2022年:推出Make-A-Scene模型,支持图像、音频、视频和3D动画的生成。随后借助扩散模型(diffusionmodels),构建了LlamaImage基础模型,实现了更高品质的图像与视频生成,以及基于指令的图像和视频编辑。去年:整合多项能力,推出MovieGen模型,可根据简单文本输入生成定制视频和音效,还能对现有视频进行编辑。如今,这些研究成果正逐步转化为面向大众的生成式AI工具,让用户能够:更自由地表达自我更便捷地与他人建立联系实现脑海中的最佳创意
今年早些时候,Meta推出了AriaGen2,这是其研究型智能眼镜的最新一代产品。当时,Meta并未透露太多细节,但最近公司表示,这款设备将在明年某个时间点向第三方研究人员开放,并借此展示未来AR眼镜可能具备的功能。在一篇最新的博客文章中,Meta披露了更多关于AriaGen2的信息,包括其外观设计、音频系统、摄像头、传感器以及本地计算能力。尽管AriaGen2没有显示功能,因此无法实现完整的增强现实体验,但它所搭载的技术已经为未来的AR眼镜奠定了基础。更强大的计算机视觉能力未来全天候佩戴的AR眼镜最核心的需求之一就是强大的计算机视觉(CV)能力,比如对室内空间进行建模、识别物体等。在这方面,AriaGen2相比第一代有了显著提升:CV摄像头数量从原来的两颗增加到四颗;支持120dBHDR全局快门;视野范围扩大;双眼重叠视场达80°,大幅提升了3D跟踪与深度感知能力。此外,Meta还展示了AriaGen2在一个房间内运行SLAM(同步定位与地图构建)时的表现:新增传感器与更智能的本地计算除了视觉能力,AriaGen2还在传感器方面进行了升级,包括:经过校准的环境光传感器;嵌入鼻托的接触式麦克风,用于在嘈杂环境中捕捉更清晰的语音;心率传感器(PPG),可采集生理数据。更重要的是,Meta表示AriaGen2的本地计算能力也大幅提升,其定制协处理器支持实时机器感知任务,包括:视觉惯性里程计(VIO),实现6自由度空间追踪;高级眼动追踪(注视方向、双眼会聚、眨眼、瞳孔大小等);3D手势追踪,提供精确的动作数据和标注;SubGHz无线电技术,可在多设备之间实现亚毫秒级时间同步。极致轻量化设计尽管集成了多项前沿的计算机视觉、机器学习和传感技术,AriaGen2的重量却仅有74–76克,非常接近普通眼镜的使用体验。相比之下,一副普通眼镜的重量通常在20–50克之间,具体取决于材质和镜片厚度。Meta提供了8种尺寸选项,以适应不同用户的头部和鼻梁形状。同时,这些眼镜也像传统眼镜一样可以折叠,便于收纳和携带。值得注意的是,Meta尚未公开说明电池续航表现,不过眼镜右侧臂上配备了USB-C接口,可能支持外接电源或电池包。人类感知×机器视觉的融合AriaGen2不仅能追踪和分析用户所处的环境,还能捕捉用户对该环境的主观感知反应。例如在演示中,它能够记录用户准备咖啡时的眼球注视和心率变化--这些数据可用于判断用户对外部刺激的反应。除此之外,它还能通过CV摄像头、磁力计、两个惯性测量单元(IMU)和气压计,记录用户在空间中的相对位置与移动轨迹。对于以人为中心的研究项目来说,这是一个巨大的数据宝库;而这类信息,也正是未来AR眼镜将需要收集的关键数据。向AR眼镜迈进的关键一步Meta表示,AriaGen2"将为定义下一代计算平台的技术创新铺平道路",这个平台无疑就是AR。尽管要真正取代智能手机还有很长一段路要走,但Meta正在通过Aria和原型机Orion(一款连接无线计算单元的AR设备)不断推进这一目标。目前市面上已有一些面向消费者的AR眼镜,例如XREALAir2Pro,但在轻薄化、长续航和强大性能之间取得平衡仍然极具挑战。Meta首席技术官兼RealityLabs负责人AndrewBosworth表示,基于Orion的AR设备将在本十年内推出,价格预计将高于智能手机。即将亮相CVPR2025预计很快会有更多关于AriaGen2的消息披露。Meta已确认将在2025年6月11日至15日于纳什维尔举行的CVPR2025上展示该设备,并提供互动演示。届时,我们将带来更多来自现场的详细报道。
日本Expo2025,感受这场传统世博会在新时代背景下的转型,并尝试将其与同步推出的虚拟展馆进行对比。这不仅是一场科技与文化的盛宴,更是一次关于"人如何连接"的深刻反思。Expo2025是一场将历史悠久的世界博览会概念带入当代的作品。自19世纪末以来,世界博览会一直是国家和企业展示实力与科技进步的重要舞台。它融合了软性政治宣传与科技展览的元素,参观者会看到阿童木探索iPCS细胞与未来医疗,星形吉祥物歌颂"自由之地"美国(以及AI),甚至还能在一个展位里体验《怪物猎人》的XR展示。这些活动的历史意义不可小觑。法国为1889年世博会建造了埃菲尔铁塔;其他博览会则见证了摩天轮和移动电话的首次公开亮相。简而言之,这些活动不仅反映了当下世界的面貌,也展示了人类对未来的想象。Expo2025在2018年赢得举办权后,便开始筹备。而真正动工建设时,却正值新冠疫情肆虐和元宇宙热潮兴起之时。早在疫情爆发前,日本就为Expo2025设定了"设计我们生活的未来社会"的主题。人们探讨如何构建一个可持续发展的未来社会,在这个社会中,人类既能重新思考当前的生活方式,又能保持繁荣发展的潜力?官方宣传材料反复强调,这将是"未来社会的实验室",是一个专注于拯救、赋能和连接人类的实验平台。如果是在2020年封锁期间构思这样一个大型展示项目,为什么不设想一个"虚拟世博会"呢?在线下,所有人都可以前往日本大阪亲自参观Expo2025;而对于无法亲临现场的人们来说,这也将是有史以来首个通过网络全球开放的虚拟世博会,让各国和企业足不出户就能在全球舞台上展示自己。考虑到日本许多活动至今仍在拥抱虚拟社区,这种虚拟世博会的概念并非过时产物,也不落后于日本其他组织的努力。线上交流和活动并没有随着解封而消失--大家仍在使用Zoom,东京电玩展也在恢复线下举办的同时继续保留其虚拟版本。不同的是,如今人们更渴望面对面的互动和真实的乐趣,而不是一直盯着屏幕。如果这个名为"VirtualExpo:YumeshimaIslandsintheSky"(以大阪人工岛Yumeshima命名)的虚拟展馆要在这样的环境中取得成功,它就必须提供一种现实中难以实现的独特体验,哪怕是在实体展会上也是如此。虚拟展馆的技术支持与初步印象虚拟展馆支持手机、PC和VR设备访问。当有人正式参观前几天提前进入系统时,第一印象相当不错。它远不止是一个普通的VRChat场景,而是一个独立的免费应用程序,内容丰富到足以被称为一款完整的游戏,而非附属体验。登录Expo账号后,用户首先会进入一个角色创建界面。虽然面部样式、服装、发型、发色和肤色选择有限,但依然提供了足够的个性化空间。接着他们会被投放到应用的主广场,在那里可以遇见可爱的虚拟角色Soramin,然后开始自由探索整个展馆。令人惊喜的是,这里并不是一个静态的空间。虚拟展馆的日程安排与现实中的世博会同步进行。如果现实中正在举行某个国家日,虚拟世界也会挂满对应的国旗。作为一个面向全球观众的世博会,它还内置了多语言语音和文字聊天翻译功能,让人们能轻松与来自世界各地的玩家交流。从纸面描述和初次启动应用的体验来看,它确实像是一场真实而独特的虚拟活动,充满了各种可做之事和可供探索的展馆。然而,当深入了解后,会发现一些问题。"合同式参与"现象与展馆局限这个虚拟展馆给人一种"合同义务"的感觉,明显可以看出很多国家只是被迫参与,后来才意识到虚拟部分并非优先事项。每个虚拟岛屿上都设有几个展馆和虚拟体验区,鼓励玩家步行探索。Soramin和世博会的官方吉祥物MyakuMyaku会在开放区域进行一些可爱的互动活动,让整个环境显得更加生动。有些还会赠送表情动作或新服饰。这些虚拟岛屿几乎完全按照实际展馆的布局1:1复刻,这对从虚拟转现实参观的人来说非常有帮助。事实上,有人在虚拟展馆中逛了一圈后,形成了清晰的心理地图,当他几天后亲自前往大阪参展时,这个心理地图真的帮到了他--因为现实中的Expo并不容易导航,甚至在他待了整整10小时之后,仍然发现了之前没注意到的新展馆。然而,展馆本身的体验可以说是参差不齐。许多展馆根本就是"空壳",玩家加载了半天,结果只看到一个空荡荡的房间,墙上贴着一张模糊的展馆效果图和一段文字介绍--而这正是实体展馆中实际展出的内容。虽然每个虚拟展馆的外观都高度还原了现实中的建筑,看起来极具吸引力,但大量展馆只是套用了一个模板化的结构。在大约40个虚拟展馆中,超过50%都是这种复制粘贴式的展示方式。这就像一个人兴致勃勃地去参加一场派对,却在即将进门时发现门被锁上了。当然,也有一些国家尝试做出一些特色内容。例如莫桑比克展馆就设计了一段导览式体验,展示了该国的文化与发展,并配有高质量的照片和演讲音频。离开时还能获得一套专属服饰作为奖励。不过,这类展馆也暴露了另一个问题:它们往往依赖YouTube视频来呈现无法通过简单3D模型或文本框表达的内容,而这些视频在应用中运行得并不稳定。少数展馆真正拥抱虚拟媒介也有少数展馆真正理解了虚拟空间的可能性,并在此基础上打造了与现实展馆主题一致但形式新颖的体验。在Expo2025的众多国家与企业展馆之外,还有六个"特别展馆"(SignaturePavilions),由日本各地的艺术家与教授主导设计,旨在挑战博览会主题,并展现他们的创意理念。例如:石黑浩教授(IshiguroHiroshi)探索了生命的未来;内井昭仁艺术家(OchiaiYoichi)则通过一项实验性展示质疑数字技术下的人性本质:系统会扫描参观者并生成高精度的数字化分身,供人交流互动,从而提出一个问题--在AI和数字化时代,我们如何识别并保留"人性"。但在虚拟展馆中,这项核心功能无法实现。于是他们转而设计了一种令人眩晕的体验,试图重现那种让人迷失自我、反思身份的氛围。虽然结构混乱且略显恐怖,但它确实传达了原本意图。像这样的展馆,或是松下展馆将儿童绘画变成动态作品的创意展示,才真正体现了虚拟展馆应有的潜力。遗憾的是,大多数展馆并没有朝这个方向努力。如今的VirtualExpo更像是一个充满破碎梦想的空间,甚至没有承诺中那些可以一起交流的参观者,使得整个体验显得格外冷清。特别讲座直播:唯一的亮点之一一个值得一提的优点是,用户可以在虚拟展馆中观看现实中正在进行的专题讲座直播。为了配合博览会的主题与各国国家日活动,主办方偶尔会邀请嘉宾讨论可持续发展、社会责任等议题,比如地震后社区重建、水资源保护等。可以在虚拟展馆中观看这些直播,尽管它们本质上只是YouTube直播流,甚至可以直接通过网页观看,无需进入应用。理想很美好,现实仍不足让无法亲临大阪的观众也能在线参与世博会的想法是美好的,加上虚拟角色定制与社交功能的设计,似乎能带来一种独特的沉浸感。但在现实中,很多展馆提供的只是空房间或YouTube视频,远远谈不上是一场"世界博览会"的体验。事实上,在亲身参观完实体世博会之后,有人更加坚定地认为,这个VirtualExpo展示了当前元宇宙愿景中最根本的问题之一。即便这个应用能完美还原博览会的虚拟形态,它仍然忽略了最重要的一点:人类之间那种自发性的连接与探索,目前还无法通过虚拟手段复现--而且也许永远都无法完全复制。但这也没关系。实体展会的魅力:无法替代的真实瞬间记得那是一个温暖多云的星期四,有人满怀期待地前往Expo2025。为了不错过任何精彩,他提前做了详尽的研究,列出了必看展馆清单,甚至还预约了一些需要提前登记的场馆。法国有经典艺术展,波兰带来了肖邦音乐表演,当天还有一个太鼓节仅限那天举办!当时他真的很兴奋!然而几乎一到现场,他的计划就被打乱了,只剩下几个提前预约的展馆。但正是这种随遇而安的心态,让他度过了更有意义的一天。最大的快乐往往来自于最意想不到的地方。他在等待第一个预约的间隙,无意间走进了马来西亚展馆。入口处的小平台上,几位舞者正在表演传统的马来舞蹈,动作优雅流畅,男女舞者之间的互动充满趣味。虽然他对这一领域并非专家,但那种从脚跟到脚尖轻盈跳跃的动作,真的令人着迷。演出快结束时,舞者们冲进人群,把他和其他来自世界各地的观众拉上舞台一起跳舞。短短五分钟里,大家一起学习基本舞步,模仿他们的动作,最后全场欢呼雀跃,不同语言、不同文化的人们相互拥抱、鼓掌,因为他们刚刚以陌生人的身份共同完成了一场即兴共舞。虚拟体验的局限:无法复制的"偶然"虚拟世博会即使做到极致,也只是开发者所能设想和编程进去的内容。用户依然只能在设定好的范围内进行互动,无法真正自由发挥。他会开始以任务清单的方式看待展馆,而不是出于兴趣去探索。VirtualExpo甚至鼓励这种行为,因为它承诺完成所有展馆浏览后会有奖励。只有亲身经历实体展会,他才真正了解了一些之前知之甚少的国家,也收获了许多本不可能拥有的体验。在Expo2025,他吃了正宗非洲咖喱,还在排队时与一位陌生人聊起了彼此的生活故事。而在VirtualExpo中,他只是坐"太空列车"看一堆AI宣传片,还收到了NFT铸造邀请。技术不能取代人性的本质有人喜欢VR,也相信它能在某些方面超越传统媒介。但技术永远无法取代让我们成为"人类"的那些东西--哪怕只是一个偶遇的微笑,一次被人拉去跳舞的手感。科技可以增强生活体验,但如果用AI聊天机器人代替友谊,用虚拟聚会代替真实见面,那么所失去的,恰恰是人性中最宝贵的部分:那种不可预测、无法编程的随机性。是否有一天,某个平台能捕捉到我们在街头漫步、向他人微笑时那种自发的情感联结?能否再现当别人拉着你的手带你跳舞时,指尖的触感?也许可以,但现在还做不到。如果我们继续沿着当前这条名为"元宇宙"的道路走下去,也许永远也无法做到。VirtualExpo无法复制真实的喜悦,因为真正的喜悦和意外,从来不在计划之中。
在刚刚结束的GoogleI/O大会上,Google展示了它对AndroidXR的愿景。但你可能没有意识到的是:运行在头显上的"AndroidXR"和运行在智能眼镜上的"AndroidXR",其实是两个完全不同的操作系统。这个名字最早是由《商业内幕》(BusinessInsider)记者HughLangley在18个月前首次报道出来的。据他当时的独家消息,Google内部将用于头显的操作系统称为"AndroidXR",而用于智能眼镜的轻量级版本则被称为"AndroidmicroXR"。但现在,事情变得有些模糊了。从内部命名到公开宣传:Google把两套系统统一叫"AndroidXR"自Google去年12月正式公布这两个平台以来,官方却开始将它们统称为"AndroidXR"。例如:三星的设备被称为"AndroidXR头显"Google自己展示的智能眼镜原型(在TED和I/O上亮相的带小HUD显示的眼镜),则被称为"AndroidXR眼镜"这种命名方式不仅令人困惑,而且容易误导公众。因为实际上,它们是两个完全不同、定位截然相反的操作系统平台。两者之间到底有什么区别?运行在头显上的AndroidXR:是你在手机或平板上熟悉的Android体验的延伸;完全独立运行,具备完整的PlayStore支持;提供完整的开发者SDK,支持原生应用开发;更像是一个"便携式VR/AR操作系统"。运行在智能眼镜上的AndroidXR:是一个高度裁剪、功能受限的Android版本;目前Google尚未公布任何SDK或平台细节;实际运算大多依赖连接的智能手机,类似于Ray-BanMeta眼镜的工作模式;更像是一个"轻量级信息显示终端",而非完整计算平台。虽然二者共享同一个AOSP(Android开源项目)内核,并且都集成了部分Google服务,但除此之外,它们几乎没有任何相似之处。类比理解:如果AppleWatch叫做"iOS设备"想象一下,如果苹果把AppleWatch称作"iOS设备",或者Meta把Ray-BanMeta眼镜说成运行HorizonOS,那是不是也会让人感到迷惑?这就是目前Google对"AndroidXR眼镜"的定义所带来的问题--它让外界误以为这些设备拥有和头显一样的功能与生态支持。Google的策略动机是什么?我推测,Google之所以有意模糊这两者的界限,可能是出于以下几点考虑:Ray-BanMeta眼镜的成功让穿戴式AR成为消费市场的热门话题;Meta的Orion原型引发了大量关注;初代AppleVisionPro面临市场冷遇,也让Google不想把自己归类为"高端头显厂商"。因此,Google很可能希望借助"AndroidXR"这个统一品牌,制造一种"我们已经全面布局XR生态"的印象,而不是明确区分这两个平台的不同定位。混淆的风险:XrealAura让"眼镜"概念更加模糊就在Google发布其智能眼镜的同时,Xreal推出了ProjectAura,一款外观类似太阳镜、实则通过外接计算模块运行"头显版AndroidXR"的设备。这就意味着,"AndroidXR眼镜"这个词现在有了双重含义:一类是面向消费者的轻量级智能眼镜(如Ray-BanMeta)一类是更接近头显形态、功能强大的"类眼镜设备"(如XrealAura)换句话说,你未来可能会看到两种都叫"AndroidXR眼镜"的产品,但它们背后的操作系统、功能、应用场景却完全不同。对用户和开发者的潜在影响当一个开发者宣布他们推出了一款"面向AndroidXR"的应用时:用户是否能明白,这款应用并不能在Ray-BanMeta或WarbyParker合作的眼镜上运行?开发者是否清楚,他们的"AndroidXR应用"其实只能在头显设备上使用?对于像你这样的VR52读者来说,这些差异或许一目了然。但对于普通消费者而言,XR设备之间的区别还远未普及,这种模糊命名只会加剧认知混乱。解决方案建议:给眼镜平台起个新名字!要解决这个问题其实很简单:给智能眼镜平台起一个全新的名字。比如:GlassOS(曾用于初代GoogleGlass)GlassesOS(类似WearOS的命名逻辑)这样可以清晰地划分出两个平台的边界,也便于用户和开发者理解不同设备的能力差异。结语:营销vs透明度的博弈截至目前,还没有任何一家硬件厂商真正发布过"AndroidXR"设备。也许等到产品正式上市后,Google会通过市场营销和公关手段,澄清这两个平台的区别。但从目前的信息来看,我并不乐观。Google显然更倾向于制造"统一生态"的幻觉,而非清晰的产品定位。如果你是开发者、媒体人或早期采用者,了解这一区别至关重要。因为它不仅关系到你能做什么、不能做什么,也决定了你对未来XR生态发展的判断方向。
据科技媒体LowPass报道,曾创办在线手工艺品交易平台Etsy的联合创始人兼前CEORobertKalin,目前正在开发一款外形类似放大镜的手持式混合现实(XR)设备。这款设备来自Kalin创立的新创公司DoppleWorks,据称其产品代号为Loop。最近,该设备通过了美国联邦通信委员会(FCC)的认证流程,意味着它可能已经接近正式发布。📄FCC文件透露有限信息:IP65防水、支持WiFi/蓝牙/NFC通常情况下,FCC提交的应用文件中会包含设备的基本规格信息,但此次关于Loop的文件内容被大量涂黑处理,仅披露了以下几点关键信息:是一款便携式、电池供电设备支持Wi-Fi和蓝牙连接具备NFC功能设备防护等级达到IP65(防尘+防泼溅水)这意味着Loop可以在日常使用中应对一定程度的灰尘和液体接触,适用于室内外多种场景。🔍专利曝光外观设计:手持式空间计算设备虽然目前尚未有官方图片流出,但DoppleWorks曾提交一项名为《专用手持空间计算设备》的专利申请,并附上了多张设计图及使用场景描述。从专利图来看,Loop可能具备以下特性:设备可垂直放置于一个专属底座上,推测这可能是主要的充电方式;内部或搭载6自由度(6DOF)追踪传感器、麦克风、摄像头、扬声器;还可能支持眼动追踪技术;但专利中并未提及镜头系统,因此尚不清楚用户是将其贴近眼睛使用(类似单筒望远镜),还是像放大镜一样保持一定距离观看。🎮应用场景广泛:教育优先,兼顾游戏娱乐从专利覆盖的内容来看,Loop并不局限于单一用途,而是涵盖了包括:游戏教育儿童互动学习等多样化场景其中,教育领域被认为是该设备最有可能率先落地的方向。DoppleWorks还提交了一项商标申请,将公司定位为一家专注于开发"电子学习玩具"的科技公司。👨💻团队背景揭秘:VR老兵集结,硬件经验丰富LowPass的进一步调查发现,DoppleWorks的创始团队成员大多拥有深厚的VR行业背景,其中包括多位曾参与过知名社交VR平台的工程师:MozillaHubsAltspaceVR这两款平台虽已关闭,但在早期社交元宇宙探索中具有重要地位。公司的CTOGeoffChatterton更是资深硬件专家,曾在PayPal担任硬件负责人,此前还在Apple、Dell等公司任职,并参与过智能手表初创公司WimmLabs的开发工作--该公司后来被Google收购。🧩设计思路独特:无头显、无镜头,有何优势?如果Loop最终确实采用"放大镜式"的非头戴设计,那它将与传统XR头显形成鲜明对比:✅优势:不需要考虑头显适配问题,儿童也能轻松使用;设计简洁,便于短时间快速体验;可作为"魔法窗口",引导用户进入混合现实世界。❌潜在挑战:若设备更像是"手持AR屏幕",那它的体验可能与智能手机AR应用相似;缺乏沉浸感,需依赖内容创新来体现差异化。🤔总结:Kalin再出发,能否颠覆XR教育市场?RobertKalin此次回归科技界,选择了一个极具挑战性的方向:打造一款面向儿童与教育市场的混合现实设备。Loop如果成功推出,或将开辟一条不同于主流头显路线的XR新路径。而DoppleWorks所拥有的跨界人才组合、教育导向的产品定位,以及对用户体验的深刻理解,也让外界对其未来表现充满期待。
作为全球最具影响力的扩展现实(XR)行业盛会之一,AWEUSA2025将于6月10日至12日在美国加利福尼亚州长滩市正式拉开帷幕。我们作为今年大会的官方独家媒体合作伙伴,也提前获得了多家参展公司的展示信息,并为你带来第一手剧透。本次展会涵盖增强现实(AR)、虚拟现实(VR)、混合现实(MR)等前沿技术,吸引了来自全球的顶尖企业与开发者。如果你正计划前往现场或关注XR技术的最新趋势,以下是几家你绝对不能错过的参展公司。🧲CREAL:轻量级光场显示,让虚拟更真实CREAL将在本届AWE展示其最新的Clarity光场显示屏。这款产品在今年初发布后,团队持续对空间光调制器进行创新升级,进一步提升了图像质量。参观者可以通过两种方式体验这项技术:佩戴专用头显设备使用桌面型眼镜装置这意味着,你可以亲身感受到光场技术带来的更自然、更沉浸的视觉体验--无论是在AR还是VR场景中,都更接近人眼的真实感知。🕶️XREAL:AR眼镜+模块化配件,打造空间计算新体验XREAL作为近年来炙手可热的AR品牌,将在AWE展出其大受欢迎的XREALOne系列AR眼镜,并搭配其强大的空间计算功能。此外,还将首次公开演示其全新配件--XREALEYE模块化摄像头。这是专为XREALOne打造的外接设备,能显著提升环境感知能力与交互体验。不仅如此,XREAL还将首次线下展出一款尚未公布的全新配件,值得期待!🔧ForgeFX:用XR训练高风险行业的"实战高手"ForgeFXSimulations将在AWE2025上推出其新一代XR训练平台--VORTEX,专门面向那些传统培训手段难以覆盖的高风险、高后果场景。该平台基于ForgeFX自主开发的ForgeSIM引擎构建,具备以下核心能力:超写实LiDAR地图环境GIS支持的沙盘模拟系统语音激活专家问答系统实时性能分析与AI辅助决策目前已在JPEO-CBRND的化学、生物、放射、核应急响应(CBRN)项目中完成试点应用。除此之外,ForgeFX还将推出针对MetaQuest3PCVR平台的增强版水平定向钻井模拟器(HDDSimulator),与VermeerCorporation联合开发,新增了此前从未模拟过的安全关键任务模块:"自动钻杆更换系统"。在展位#346,观众还可以亲身体验多达六种互动训练模拟系统,包括:JLGAccessReadyXR培训系统SomeroS-22EZ激光整平机模拟器CBRNDHoloTrainerTrumpf激光切割模拟器ForgeFX挖掘机操作模拟器Ocuweld焊接VR模拟器这些系统充分展示了ForgeFX在设备集成式沉浸训练解决方案领域的领先地位。🎯PICO:企业级MR头显来了!Pico4UltraEnterprise首秀PICO将在AWEUSA2025上首次亮相其最新发布的PICO4UltraEnterprise--这是一款专为企业用户设计的一体式混合现实头显。该设备搭载了先进的MR功能,并配备PICOMotionTracker,支持全身体追踪和物体识别,适用于制造业、教育、医疗等多个领域。PICO已经成功拓展至:教育培训企业培训场馆娱乐(Location-BasedEntertainment,LBE)展会期间,参观者将有机会亲自体验这些实际应用场景。此外,PICO还设置了私密洽谈区,方便客户深入交流如何借助PICO解决方案加速企业发展。同时,PICO将举办两场主题演讲:《释放LBE潜力:PICOXR解决方案规模化实践》《赋予空间开发者超能力:WebSpatial与SpatialML》📅不容错过的年度XR盛宴AWEUSA2025是观察XR行业未来方向的重要窗口。从消费级AR设备到企业级VR培训系统,各大厂商都在用实际行动证明:XR正在从概念走向落地,成为推动各行各业数字化转型的关键力量。如果你也对这场盛会充满期待,欢迎在评论区留言告诉我们你最想看到什么内容!
2025年6月5日,高德地图旗下高德开放平台正式推出智能眼镜解决方案,标志着其在空间计算与智能穿戴领域的技术创新迈入全新阶段。作为阿里巴巴集团旗下的专业出行和位置服务解决方案提供商,高德地图依托AI大模型、北斗高精定位技术,并融合创新性的Planner-Executor架构理念,率先打造了全球首个集"感知、规划、执行、表达"于一体的全链路AI导航智能体--NaviAgent。这一突破性成果不仅重新定义了智能出行的技术边界,也为行业生态伙伴的深度协同提供了坚实的技术底座。🤝携手行业领军者,共建"AI+AR"导航生态目前,高德开放平台已与多家AR领域头部企业达成战略合作,包括:Rokid雷鸟创新逸文科技星纪魅族围绕智能眼镜终端,双方联合推出了基于NaviAgent的AR导航应用,共同构建以"AI+AR"为核心的下一代导航生态体系。🧠深度场景化Agent能力:导航不止是路线指引高德智能眼镜解决方案深度融合本地生活服务与导航功能,实现从"路径引导"到"场景服务"的跃迁:1.结构化信息查询通过AI能力整合海量数据资源,提供多维度的深度信息服务,如:用户评分榜单排行门票价格开放时间等帮助用户在移动场景中快速获取关键决策信息。2.智能语音交互系统支持复杂指令输入,例如:路径偏好设定实时语音添加途经点查询剩余行程时间等大幅降低操作门槛,提升使用便捷性。🚗高阶HUD导航体验:看得见的安全感基于高德地图导航生态与大规模数据基座,该方案实现了增强现实导航HUD(抬头显示)的智能化升级:动态感知实时路径后方来车预警红绿灯倒计时读秒天气、光照变化自适应提示这些功能显著提升了出行的智能性与安全性,尤其在骑行等高频移动场景中表现突出。例如,在骑行过程中,用户不仅可以:提前知晓并实时监测路况通过语音指令调整路线获取骑行公园推荐查看阴凉覆盖路段、坡度分析等贴心信息🏛️空间感知技术壁垒:让旅游导览更"懂你"在空间感知领域,高德同样构建了领先的技术优势。智能眼镜解决方案结合通义大模型与多元融合算法,可实现对地点与建筑物的精准识别与语义理解。在旅游场景中,设备能够自动识别景点,并触发AR导览解说;用户还可通过语音提问,实时获取相关历史背景、文化故事等内容,真正实现"走到哪,讲到哪"。🔧产业链协同创新,推动产品快速落地高德智能眼镜解决方案的快速迭代与产品化,离不开与合作伙伴的深度协同:Rokid在AR光学显示领域的深厚积累;雷鸟创新在消费级AR硬件市场的成熟经验;逸文科技与星纪魅族在智能终端设计与制造上的独特优势;这些力量共同构成了"软硬一体、端云协同"的技术闭环,为用户提供更加完整、流畅的智能穿戴体验。⌚拓展智能穿戴生态,赋能更多终端形态除了智能眼镜,高德也在同步推进智能手表解决方案的建设。该方案具备高度兼容性,支持:AndroidRTOS等主流操作系统并实现了与手机端一致的操作逻辑与界面风格,助力开发者快速接入,加速智能穿戴生态系统的全面升级。🚀展望未来:构建无缝连接的智慧出行图景未来,高德将持续深化与行业伙伴的合作关系,进一步优化AR导航技术的精准度与适用性,探索更多创新应用场景,包括:车载HUD工业AR远程协作室内导航等同时,通过打通手机、车机、手表、眼镜等多端设备,推动智能穿戴设备成为下一代人机交互的重要入口,为用户打造真正"无感切换、无缝连接"的智慧出行体验。
继VRGamesShowcase之后,一个新的VR开发者活动--VRDeveloperDirect即将上线!这次的特别之处在于:它不再只是走马观花式地展示一堆项目,而是要对三款来自不同工作室的VR新作进行深度剖析。其中一款已经确认是来自Flat2VRStudios的《RoboquestVR》,而另外两款作品则将在"未来几天内"陆续揭晓。主办方表示,这场活动将带来包括:游戏玩法实机演示幕后美术资源首次曝光各项目的最新开发进展现场与远程开发者访谈穿插进行目前还没有公布具体时长,但可以预见这会是一场干货满满的VR粉丝专属节目。VR展示季全面开启|暑期档看点不断随着各大厂商进入"夏季展示季",各种重磅游戏活动也接连登场:今天早些时候刚刚结束的是UnrealEngine2025状态发布会(6:30AMPT)Meta也正式加入今年的SummerGameFest,时间在6月6日当天晚些时候的IOInteractive展示会还带来了《杀手》系列的最新情报而这场VRDeveloperDirect将于美西时间6月10日上午9点(北京时间6月11日凌晨0点)在YouTube和TikTokLive直播,喜欢VR游戏的朋友记得调好闹钟!
近日,由前Oculus创始人帕尔默·拉基(PalmerLuckey)创办的国防科技公司安杜里尔工业(AndurilIndustries)宣布与Meta建立合作伙伴关系,双方将联合设计、制造并部署一系列面向美军及其盟友的扩展现实(XR)产品。根据官方声明,此次合作旨在为战场上的士兵提供更强的感知能力,并通过直观的操作界面实现对自主作战平台的控制。首批合作成果将包括一款名为EagleEye(鹰眼)的AR/VR战术头盔。关于AndurilAnduril成立于2017年,由曾在Facebook旗下Oculus任职的PalmerLuckey创立。他因政治捐款事件被Facebook解雇后,转向国防科技领域发展。该公司核心产品是Lattice系统,这是一个基于人工智能的软件平台,能够整合来自多种传感器和平台的数据(包括自家设备和第三方系统),自动生成统一的战场态势图,并自动识别关键目标和事件。此外,Anduril还开发了一系列无人作战系统,涵盖:自动哨塔侦察无人机巡航弹药(LoiteringMunitions)拦截器巡航导弹无人战斗航空载具(UCAV)甚至包括无人潜航器(UUV)目前,Anduril的估值已达到280亿美元,成为美国国防科技领域最具潜力的企业之一。接手IVAS项目|取代微软HoloLens的下一代AR战术头盔就在三个月前,Anduril宣布正式接管了美国陆军的IVAS(集成视觉增强系统)计划,该计划旨在为每一位士兵配备增强现实头盔,以显著提升其在战场上的态势感知能力。该项目最初由微软通过定制版HoloLens推进,但最终因性能与成本问题被替换。Anduril将其更名为SBMC(士兵任务指挥系统),并与Meta联合提交了一份技术白皮书,标志着双方合作的正式开启。EagleEye:集成了Meta尖端光学技术的未来战甲在2月宣布接手IVAS项目后不久,Luckey在一次采访中首次披露了这款新型头盔--EagleEye。他表示,这是一款"集成了防弹外壳"的模块化头盔,能赋予士兵"超越人类的感官"。而在近日接受知名科技记者AshleeVance的专访时,Luckey表示,与Meta的合作实际上已经酝酿了近一年时间,而EagleEye正是双方共同开发的第一款产品。虽然两家公司尚未公开具体使用了哪些Meta的XR技术,但Luckey特别提到了Meta在碳化硅光学镜片上的巨额投资。这种材料正是Meta最新AR原型机Orion所采用的核心组件之一。它实现了70度对角视野,同时保持轻薄便携。然而,目前生产光学级碳化硅的技术极其复杂且昂贵,尚无成熟的商业化供应链。正因如此,Meta曾在Connect2024上表示,如果Orion作为消费产品推出,售价将超过1万美元。尽管如此,这样的价格对于军方而言仍属可接受范围。更重要的是,如果Anduril和Meta能够建立大规模的碳化硅供应链,未来不仅能降低军用设备的成本,也可能加速这项技术向消费市场的普及。EagleEye的开放架构|模块化设计支持多厂商接入除了采用Meta的先进光学技术,EagleEye的另一大亮点是其高度模块化的开放式架构。Luckey强调,这款头盔可以兼容"多种不同类型"的显示系统,甚至包括那些并非与Anduril合作的厂商所开发的设备。他在采访中表示:"我看到的不是几千台或几万台设备的需求,而是整个军队的全面升级。因此我们所做的每一件事,都是为了构建一个能够真正规模化部署的架构。""每个军种、每个任务都会有不同的传感器、不同的视觉系统、不同的处理器配置。我们要做的,就是让这些系统尽可能轻便、尽可能低成本地服务于各自的特定需求。"Luckey与Meta的"破冰之旅"仅仅几年前,人们还难以想象Luckey会再次与Meta展开合作。2017年,他因向支持特朗普的非营利组织NimbleAmerica捐款1万美元而引发争议。当时这家组织仅发布过一张讽刺希拉里的广告牌,但媒体误传称这笔资金被用于资助网络喷子和种族主义表情包。尽管没有任何证据支持这一说法,Facebook内部压力迫使他被解雇。2018年,在美国参议院听证会上,扎克伯格曾明确表示,Luckey被辞退"并非因为政治立场"。去年初,时任MetaCTO的AndrewBosworth也在一次与Luckey和JohnCarmack的公开讨论中承认,他对当年事件的了解仅限于二手信息,并为此道歉。随后几天,Bosworth更进一步发表公开致歉信,表示自己"重新审视了整件事",意识到自己"此前的信息有误",并向Luckey致歉。Luckey公开接受了道歉,并指出,八年过去,当年推动他离职的人早已不在Meta。就在Bosworth道歉前几天,扎克伯格亲自邀请Luckey体验了Orion原型机。他还对《Tablet》杂志表示,他对Luckey"充满敬意",并希望未来能在更多项目上合作。双方高层表态|科技赋能国家安全在今日发布的联合声明中,MarkZuckerberg表示:"过去十年,Meta一直在致力于构建AI与AR技术,以推动下一代计算平台的发展。我们很自豪能与Anduril合作,将这些前沿技术带给那些捍卫国家利益的军人。"AndrewBosworth也补充道:"世界正在进入一个全新的计算时代,它将赋予人们前所未有的智能访问能力和感知延伸。美国国家安全也将从本土产业推动这些技术落地的过程中大幅受益。"PalmerLuckey则表示:"我很高兴能再次与Meta合作。在所有双用途技术(军民两用)可以改变美国未来的领域中,这是最令我兴奋的一个方向。我的使命一直是将战士们变成'技术魔法师',而我们与Meta正在打造的产品,正是朝着这个目标迈出的关键一步。"
据《商业内幕(BusinessInsider)》最新报道,Meta正计划在全球范围内开设更多线下零售门店,以进一步推动其虚拟现实(VR)设备和智能穿戴产品的销售与用户体验。目前,Meta在全球仅设有一家直营实体店--位于美国加利福尼亚州伯林盖姆(Burlingame),紧邻公司总部园区。该门店自2022年开业以来,主要用于展示并销售MetaQuest系列头显和Ray-Ban智能眼镜。在这家门店中,顾客可以亲身体验Quest设备,店内还设有专门的演示区域,配备一面巨大的墙屏,实时显示佩戴者在VR中的画面,并通过后置摄像头叠加用户的身体动作,让旁观者也能同步观看游戏过程,增强互动性与吸引力。从快闪店到永久门店:Meta零售策略升级在此之前,Meta也曾尝试过"快闪店"形式的临时零售体验,比如为早期产品OculusGo推出短期线下体验点。但根据《商业内幕》的报道,此次新规划的门店将采用长期运营模式,类似于现有的Burlingame旗舰店。不过,目前尚不清楚Meta具体计划开设多少家新门店,以及这些门店将在何时、何地落地。VR设备为何需要实体零售?自消费级VR市场在2010年代中期兴起以来,一个长期存在的挑战就是:虚拟现实是一种必须亲自体验才能真正理解的技术。然而,时至今日,仍有大量消费者从未接触过高质量的VR设备。此外,VR头显的使用体验因人而异:头型大小视力差异对重量分布的敏感度(尤其是鼻窦区域)这些因素都会影响用户对设备的舒适感,因此,在购买前进行现场试戴与体验显得尤为重要。而线下门店正是解决这一问题的关键渠道。苹果的线下优势对比作为Meta在空间计算领域的竞争对手,苹果已在全球拥有超过500家直营门店,这成为其推广AppleVisionPro的一大优势。苹果在多数销售VisionPro的门店中都提供了完整的体验流程,包括:店员会扫描用户的头部尺寸,推荐合适的头带与面部贴合配件提供定制镜片适配方案(适用于有近视需求的用户)自去年起,部分翻新或新开门店还专门设立了独立体验室,用于沉浸式演示这种高度个性化的服务模式,极大提升了消费者对高端VR/MR设备的认知与接受度。MetaCTO强调:提升销量与用户粘性是关键目标早在去年11月的一封内部员工信中,Meta首席技术官(CTO)就曾明确指出,公司当前的核心任务之一是提升Quest系列头显的销量、用户留存率与使用活跃度。而线下零售店正是实现这一战略目标的重要一环。它不仅有助于扩大品牌影响力,还能通过直观的沉浸式体验吸引潜在用户,提高转化率。随着AppleVisionPro等竞品加速推进线下体验布局,Meta也开始加大对实体零售的投入。未来,线下门店可能将成为VR/MR市场竞争的新战场。
VR52网成立于2015年,平台提供VR头显、AR眼镜、配件外设、厂商、测评、行业资讯、游戏与应用、展会活动等。