12月30日,MOVATPEAK正式推出全新ClipPro耳夹耳机。这款产品不仅在佩戴结构上做了全新设计,还在声学、连接和智能交互三方面同步升级,试图为开放式耳机带来一次兼顾音质、舒适度与智能化的综合体验。声学突破:三磁潮汐架构ClipPro搭载了MOVATPEAK自研的三磁潮汐声学架构。相比传统单磁体设计,三枚磁体的组合大幅提升了磁路性能与磁通量,使喇叭驱动力更强、瞬态响应更快。结果是--灵敏度提高的同时失真降低,低频下潜更深,声音层次如潮汐般递进,听感更饱满自然。在此基础上,智能云域声学技术与空间音频算法的加入,进一步解决了开放式耳机常见的低音不足、嘈杂环境音量小、清晰度差等问题。连接与续航:稳定+长续航ClipPro支持蓝牙6.0,即便在高干扰场景下也能保持稳定连接,并支持多点连接,可在手机与电脑之间无缝切换。通过AppleMFi认证,它也能顺畅融入苹果生态。续航方面,单次使用可达9小时,配合充电仓整机最长40小时;快充10分钟可获得约3小时使用时间,基本消除了日常电量焦虑。智能交互:端云协同加速AI助手依托端云协同架构,语音数据被压缩至原来的十分之一,AI助手响应速度提升至原来的10倍。这意味着用户在进行语音控制或智能查询时,几乎可以做到"随叫随到",交互流畅度显著提升。点评在开放式耳机赛道,舒适佩戴与音质往往难以兼得,而MOVATPEAKClipPro用三磁声学架构和智能算法给出了自己的解法。加上蓝牙6.0的稳定连接、苹果生态兼容性以及快充长续航,它在硬件层面已经具备了较强的竞争力。真正的考验在于,这款耳机的智能化体验能否在日常使用中持续带来差异化价值--毕竟,在耳机市场,音质是入场券,智能才是加分项。
近日,纳斯达克上市公司进馨科技(NAMI)旗下教育品牌纳米盒,与模块化智能眼镜品牌玄景合作,推出了全球首款AI垂直智能学习眼镜。这款产品于12月31日中午12点在天猫、京东双平台官方旗舰店同步开售,并伴随颇具吸引力的首发优惠--支付50元定金即可锁定2299元的到手价,并免费获赠价值199元的智能交互指环。相比市面上的同类AI眼镜,纳米盒在定价上采取了更激进的策略,直接压低体验门槛。背后依托的是其4000万用户的内容生态,形成"硬件+内容"的闭环。除了涵盖市面上多数AI眼镜的通用功能外,这款产品特别针对学习场景进行了深度优化,推出四大核心模式:课堂模式:辅助实时听课与笔记整理智能背词模式:基于记忆曲线智能推送复习内容听力模式:精听训练与发音纠正翻译模式:多语种即时互译这次发售,不仅是纳米盒从纯数字内容向"内容+硬件"战略转型的关键节点,也是教育科技领域的一次跨界尝试。硬件业务将与现有的2C、2B模式形成协同,既能延长用户生命周期,又能优化营收结构。考虑到教育智能硬件行业的年复合增长率已超过20%,这款垂直学习眼镜有潜力成为爆款,也为资本市场提供了新的想象空间。但能否真正打动家长和学生,取决于实际使用的稳定性、内容质量以及长期使用价值。
1月3日,浙江台州黄岩九峰公园内,一处曾经的激光射击馆正经历着彻底的蜕变。如今,它被密集的脚手架包围,塔吊将一车车混凝土稳稳送上屋顶,工人们有条不紊地进行最后的屋顶浇筑--这标志着九峰公园全感VR乐园的主体结构施工进入收官阶段。现场施工负责人祁石磊透露,主体工程将在本月完工,2月起进入室内装修与设备调试环节,目标是在春节前具备对外开放条件。这意味着,这座公园的"数字娱乐新地标"有望在农历新年与游客见面。这不仅是一次简单的设施升级,更是一次科技赋能传统公共空间的实验。通过对原有场馆的现代化改造与沉浸式科技植入,九峰公园全感VR乐园希望打造一个融合互动叙事与数字体验的新型娱乐空间。项目计划引入"冰龙寻珠""仙宫赐福"等大型VR体验设备,将文化创意与前沿技术结合,让游客在虚拟与现实的交错中,获得全新的感官体验。永宁产投集团永宁公园公司运维部经理叶盛表示,该项目既是对公园存量空间的活化利用,也是丰富九峰公园业态的重要举措。它的落地,不仅能为年轻群体和家庭游客提供更丰富的休闲选择,也有望成为公园的全新活力引擎。在"文旅+科技"的趋势下,传统公园的数字化改造正在从概念走向落地。九峰公园的全感VR乐园项目,既是空间再利用的案例,也是地方文旅探索沉浸式体验的试金石。能否在开放后形成稳定的客流与口碑,将决定这类项目的可复制性和商业价值。
2025年最后一天,夸克给自家AI眼镜推送了首次OTA更新。这次升级的重点很明确:让AI不止能听懂人话,还能一口气干好几件事。多意图理解:一次说出口,眼镜帮你安排好本轮更新中最值得关注的,是夸克强调的"大模型多意图理解与执行"能力。简单来说,它现在可以理解并执行2–3个复合任务,而不再是机械地响应单一指令。例如,你只需说一句:"导航去公司,来点我喜欢的音乐。"眼镜会自动调动地图和音乐服务,把路线规划和播放列表一并搞定。又比如:"明天上午八点要去发布会、九点要赶飞机,记得提醒我。"系统会识别两个时间点对应的不同事件,并分别设置提醒。这种任务拆解与并行执行,让AI眼镜在生活与工作场景中更像一个真正的数字助理,而不是单纯的语音入口。录音升级:10米降噪+AI纪要在录音功能上,夸克引入了自研的QuarkAudio语音增强模型,宣称可在10米范围内实现降噪录音,并精准区分不同说话人。更重要的是,它能基于录音内容进行AI要点提炼,自动生成待办事项。目前该功能支持中文、英语、日语、韩语四种语言的实时转写与互译,对于会议记录、访谈整理等场景来说,实用性明显提升。备忘录智能化:拍照+语音双入口备忘录功能也得到了智能化改造。用户可以:语音触发:站在停车位前说一句"千问同学,帮我记一下停车位",眼镜会自动拍照并存档;拍照触发:遇到想记录的物品或场景,直接拍摄即可生成备忘。更关键的是,系统具备AI分类与语义理解能力。当你问:"最近一个月我想买的家具有哪些?"它会检索历史记录并自动汇总回复。这意味着,备忘录不仅是存储工具,还开始具备情境化检索的能力。随身翻译:覆盖89种语言翻译功能同样升级,支持89种语言互译,除了主流的英、日、韩、法、德外,还包括多个小众语种。对于跨境旅行、国际商务等高频跨语言交流场景,这一升级显然是为了进一步降低沟通门槛。点评从这次OTA来看,夸克AI眼镜正在从单一语音助手向多任务AI管家转型。多意图理解是核心突破点,它让设备不再只是被动响应,而是能主动拆解和执行复杂指令。结合录音纪要、智能备忘录和翻译能力的升级,这款产品在"随身生产力工具"这条路上迈出了一步。不过,真正的考验在于实际使用体验:多意图理解的准确率、降噪录音在嘈杂环境中的表现、以及跨语言翻译的流畅度,都会决定用户是否愿意长期佩戴并使用它。对于一款AI硬件来说,功能堆砌只是第一步,场景适配与体验打磨才是能否突围的关键。
2025年迈向2026年的跨年夜,全球越来越多用户选择在虚拟世界中迎接新年。社交平台VRChat在多个时区进入2026年之际,刷新了其历史最高同时在线用户数。据VRChat社区负责人Tupper在Bluesky上公布的数据,在美国从东部时间12月31日23:59至太平洋时间1月1日00:00的跨年窗口内,平台服务器稳定支撑了近15万名用户同时在线,分布于各类虚拟空间中共同庆祝。美国各时区峰值数据亮眼,日本表现意外强劲Tupper公布了美国四大时区的具体峰值数据:东部时间:147,226人中部时间:148,886人山地时间:141,184人太平洋时间:127,708人值得注意的是,日本地区在节假日期间也出现了"出人意料的高并发峰值",尽管未披露具体数字,但已显现出该平台在亚洲市场的持续增长势头。作为参照,Tupper提到,VRChat近期普通周末的峰值通常维持在12万至12.5万之间。此次跨年活动的显著跃升,反映出虚拟社交正成为节日庆典的重要选项。虚拟跨年vs.现实排队:体验价值正在重估尽管VRChat并未明确区分头显用户与传统2D模式用户的占比,但这一数据仍为"VR头显使用趋势"提供了有力佐证。随着BigscreenBeyond2在2026年扩大超轻量级VR眼镜产能,以及Valve即将推出模块化轻量设备SteamFrame,硬件门槛的降低有望进一步推动沉浸式社交普及。无论答案如何,一个趋势已然清晰:虚拟空间正从边缘娱乐走向主流节日场景。而2027年的跨年数据,或将见证新一轮爆发。
空间计算公司EvenRealities正式启动面向其第二代智能眼镜「EvenG2」的早期开发者计划--EvenHubPilotProgram。该计划旨在通过提供开发平台的抢先访问权限,与精选开发者深度协作,加速打造真正贴合日常场景的空间化应用体验。不同于常规的开放测试,该PilotProgram采用小规模、高互动的"早期访问群组"(cohort)模式,专为希望将创意快速转化为可运行原型的开发者设计。入选者将获得:直接对接Even平台团队,获取一手技术反馈;优先体验EvenHub最新功能,包括尚未公开的API与工具链;加入专属Discord开发者社区,与其他参与者共享进展、协作迭代。所有核心交流与协作将在Discord上进行,确保高效沟通与快速响应。聚焦HUD体验,让开发者专注UX而非硬件适配「EvenHub」作为官方开发平台,提供一套完整的API接口,用于连接EvenG2应用。其设计理念明确:让开发者摆脱底层硬件限制,专注于空间交互与用户体验本身。尤其针对抬头显示(HUD)场景中关键的UX问题--例如"哪些信息能被直觉感知?"、"如何避免遮挡现实视野?"--EvenHub支持在本地开发环境中快速反复验证与优化,大幅缩短从构想到可用原型的周期。EvenG2:轻若无物,专为日常而生的视觉增强眼镜作为该生态的硬件载体,EvenG2于2025年11月发布,目前已在全球开启预订。其核心定位并非全能型AR眼镜,而是高度克制、专注视觉辅助的日常穿戴设备:采用绿色单色Micro-LED显示屏,分辨率提升至640×480(前代G1为640×200),亮度达1000尼特,视场角20度,显著增强户外可视性;机身由镁合金与钛合金打造,镜框厚度较前代减少50%,外观更接近普通眼镜,重量轻盈、佩戴自然;不搭载摄像头与扬声器,仅提供HUD信息显示,兼顾隐私与社会接受度;支持Bluetooth5.3与UWB(超宽带),具备IP54防尘防水等级,续航长达2天以上。其应用场景聚焦于实时翻译、步行导航、提词器等轻量但高频的需求,目标是让数字信息"无声融入"现实视野,而非打断用户对真实世界的感知。EvenRealities表示,希望通过EvenHubPilotProgram与开发者共同构建一个以"空间体验"为核心的实用化应用生态。目前,感兴趣者可通过官网专用表单提交申请。
本周,广受玩家喜爱的《塞尔达传说:旷野之息》(2017)将迎来一项重大非官方更新:由开发者Crementif制作的BetterVR模组将为Cemu模拟器上的WiiU版游戏带来完整的PCVR6自由度(6DoF)。全景立体渲染+手臂级动作追踪,沉浸感拉满该模组不仅实现双眼独立渲染的立体3D视觉效果,还支持玩家在虚拟空间中自由移动头部与身体。更重要的是,它引入了精细的手部与手臂追踪机制--无论是挥舞剑盾、举火炬照明,还是拾起波克布林的断臂当武器,动作都将与玩家真实肢体同步,大幅提升操作的直观性与代入感。值得注意的是,该模组仅适用于WiiU原版游戏,用户需自行提供合法的游戏文件,模组本身不包含任何盗版内容。由于基于广受欢迎的WiiU模拟器Cemu,BetterVR还天然兼容大量现有BotW模组,为玩家提供高度可定制的VR体验。性能挑战与硬件限制并存尽管功能强大,开发者也坦承当前版本仍存在优化空间。Crementif表示,"初期会有一些'卡顿'或异常表现,后续将逐步修复。"此外,AMD显卡在首发阶段可能无法支持。据测试团队反馈,因驱动层存在Bug,AMD系统未能成功运行该模组。性能方面,受限于Cemu模拟器对CPU的高负载,整体帧率"无法媲美原生VR游戏"。不过,借助帧生成插值技术,部分高端配置已实现流畅体验,例如:Inteli9-13900K/RTX4090/32GBRAM/PimaxCrystalSuperRyzen7600X/RTX306012GB/32GBRAM/MetaQuest3开源发布,社区共建BetterVR将于12月30日以开源项目形式正式发布,代码与安装包将免费开放于Crementif的GitHub页面。此举有望激发更多开发者参与优化,推动这款经典作品在VR领域焕发新生。开源地址:https://github.com/Crementif/BotW-BetterVR
12月24日,韩国MicroLED驱动芯片厂商SapienSemiconductor宣布,已与一家全球微显示解决方案企业签署CMOS背板开发合同,金额高达54,7137,2560韩元(约合人民币2675.5万元),占公司近期销售额的68%。这笔交易不仅是Sapien在微型显示领域的一次重注,也释放出一个信号--AR智能眼镜正在成为MicroLED产业链的新战场。根据公告,双方将围绕LEDoS(硅基MicroLED)微型显示器展开从研发到量产的全程合作,目标直指AR智能眼镜和MicroLED显示器的全球市场。Sapien将依托自家的背板设计平台、内置存储器(MiP)技术,以及多年积累的开发和量产经验,快速推出可广泛用于AR智能眼镜的CMOS背板。值得注意的是,Sapien强调将在早期阶段就锁定符合AR智能眼镜市场需求的产品规格,并通过实时协作机制提升市场响应速度。这意味着,它不仅想做供应商,更希望在AR智能眼镜的产业爆发前夜,抢到技术和供应链的先手。合同执行期为2025年12月1日至2026年11月23日,销售供应区域锁定亚太市场,并设有预付款保障条款。生产模式将采用自主制造与外协加工并行,以应对AR智能眼镜市场对高性能、微型化显示模组的迫切需求。在全球科技巨头纷纷布局AR/VR智能眼镜的背景下,MicroLED被视为下一代显示技术的核心之一。Sapien这次的大单,既是自身技术实力的验证,也是对未来几年AR智能眼镜市场的一次提前卡位。问题是--当苹果、Meta、索尼等玩家都在加速推进时,Sapien能否在这场显示革命中真正突围?
在扩展现实培训领域,视觉保真度已不再是唯一焦点。真实感、工作流集成与部署便捷性,正成为企业客户的核心诉求。新西兰公司StretchSense凭借八年影视与游戏动捕经验,如今将高精度手部输入技术转向企业培训场景,联合SkillsVR等平台伙伴,推出一套软硬一体、可规模化落地的XR训练解决方案--其核心正是专为职场设计的XRTrain手套。从"手柄"到"手":重构沉浸式学习的交互逻辑传统XR培训常依赖游戏手柄,对非游戏玩家而言存在明显学习门槛;而基于摄像头的手部追踪又易受遮挡干扰,难以满足工业级精度需求。StretchSense的解法直指问题本质:移除控制器,让手直接成为输入设备。XRTrain手套专为企业培训场景打造,设计理念极为清晰:任务直达双手,中间无任何中介设备。用户戴上即用,无需熟悉复杂按键,大幅降低认知负荷,提升技能习得效率与长期记忆留存。企业级设计:精准、耐用、可多用户复用该手套融合了StretchSense八年手部数据采集的技术积累,具备多项面向实际工作环境的关键特性:高保真手指与手腕追踪:捕捉自然、精确的手部运动;高敏关节传感器:识别细微动作,支持上下文感知的交互;集成触觉反馈:在虚拟环境中"感受"按钮按压、握持工具等操作;四种尺码+透气弹性面料:适配不同手型,支持长时间佩戴;指尖裸露设计:便于敲击键盘、操作实体设备;可机洗材质:满足多用户轮换使用的卫生与耐久需求。这些细节共同构建了一个真正面向企业工作流的输入设备,而非消费级娱乐配件。跨平台兼容+开发者友好,加速规模化部署XRTrain手套全面支持OpenXR与SteamVR,可无缝运行于主流VR头显,避免企业因硬件锁定而重复投入。更重要的是,StretchSense提供完整的SDK开发工具包,允许开发者直接接入实时手部数据与手势事件,并轻松集成至Unity、Unreal等引擎。这一能力通过与SkillsVR平台的深度合作进一步放大。在SkillsVR中,XRTrain手套以预配置模块形式存在,用户只需点击启用,即可立即调用。如StretchSenseCEOChrisChapman所言:"你不需要重写输入层,模块已作为节点嵌入系统,手套到货即可使用。"对于同时推进多个试点项目的组织而言,这种"即插即用"模式显著降低了集成成本、时间与技术风险。已落地多领域,验证真实效能目前,首批XRTrain手套已交付,并在多个高要求场景中开展试点,包括:工业与国防安全训练消防模拟执法情境演练医疗临床技能培养航空与制造作业(如加油、维护)早期反馈一致指向几项关键优势:上手更快、动作更自然、技能迁移更稳定、部署与重配置时间更短、总体成本更低。这印证了一个核心逻辑:越真实的交互,越能加速真实世界中的能力形成。为企业与政府客户带来的核心价值StretchSense与SkillsVR的协作,正在将XR培训从"技术演示"推向"业务必需"。其方案为关键行业客户提供四大价值支柱:快速部署:模块化集成,缩短试点到落地的周期;深度沉浸:自然手部交互+触觉反馈,提升训练真实感;横向扩展:OpenXR与SDK支持跨团队、跨地点无缝扩展;数据驱动优化:高精度动作数据为培训效果提供可量化洞察。在国防、航空、制造、医疗等领域,这些优势正转化为可衡量的运营收益--从人员战备水平、操作安全性到整体绩效优化。随着StretchSense持续完善其"运动智能+触觉+分析"生态,XR培训将不再止步于"看起来很酷",而是真正成为提升人类表现的大规模基础设施。
由《SmashDrums》开发团队PotamWorks打造的全新混合现实游戏《MRClean》,即将于2026年第一季度登陆MetaQuest3与Quest3S。这款游戏被不少人视为混合现实领域的《PowerWashSimulator》(高压水枪模拟器),主打沉浸式、房间尺度的清洁体验。手势操控+虚拟污渍,打造沉浸式打扫体验《MRClean》完全基于手部追踪控制设计,玩家无需手柄,即可在真实空间中"擦洗"墙壁、地板和家具上的虚拟污垢。游戏还包含一个"虚拟物件模式",允许玩家逐块清理高精度的3D模型,满足细节控的洁癖需求。此外,游戏支持本地双人合作的"派对模式",让清洁不再是一个人的孤独劳动,而变成一场轻松有趣的社交互动。起源于《SmashDrums》的创意实验这一创意最初源自《SmashDrums》中的一个混合现实实验:玩家可以将虚拟颜料泼洒到现实房间中。PotamWorks表示:"虽然'涂鸦'机制天然契合《SmashDrums》那种混乱又摇滚的氛围,并成为其标志性场景之一,但后续的'清洁环节'却始终与游戏核心调性不符。"于是,团队将这一被搁置的清洁玩法独立出来,并以此参与了2025年MetaHorizonStart开发者大赛,最终孵化为今天的《MRClean》。联动内容丰富,兼容旅行模式《MRClean》未来还将推出协作内容与主题挑战。官方已确认将与《RedMatter2》《AncientDungeon》《Deisim》《SmashDrums》等作品展开联动,涵盖"15款以上玩家喜爱的VR体验"。值得一提的是,游戏还将支持Quest的"旅行模式",方便用户在移动场景下使用。
XGRIDS与Arrival.Space近日宣布达成战略合作。此次合作将整合双方在三维空间数字化领域的核心技术能力,实现从现实世界数据采集到虚拟项目启动的无缝衔接。通过这一协作,用户可在保留物理空间尺度、结构及空间关系的前提下,直接在数字环境中开展创作、编辑与协作。这意味着,真实世界的建筑、场景甚至整个街区,都能以高保真形式"搬进"虚拟平台,并维持其原始的空间逻辑。从扫描到共享:构建端到端的3D数字化工作流XGRIDS是一家专注于高精度三维重建技术的企业,主打基于"3D高斯泼溅(3DGaussianSplatting,3DGS)"等前沿算法的3D扫描软硬件解决方案。其核心能力在于将现实环境高效转化为可用于游戏、影视、数字孪生等场景的数字资产。今年,该公司推出了低成本专业级3D扫描设备PortalCam,大幅降低了高质量空间数字化的门槛。而Arrival.Space则是一个完全基于网页运行的虚拟空间平台。用户可将经3D扫描捕获的真实场景上传至该平台,在浏览器中直接管理、编辑并分享自己的三维空间。平台支持多人在线互动,具备典型的元宇宙应用特征,目前正处于早期公测阶段。此次合作标志着从"现实捕捉"到"虚拟呈现"的完整闭环初步形成--XGRIDS负责前端高保真采集,Arrival.Space提供后端云端化协作与展示,为建筑师、内容创作者乃至普通用户提供了一条低门槛、高效率的3D内容生产路径。
全球领先的半导体技术开发商豪威科技(OMNIVISION)近日发布其最新一代单芯片液晶硅基(LCOS)微显示产品--OP03021。该芯片被定位为目前业内"功耗最低、集成度最高的全彩时序单芯片微显示器",专为智能眼镜打造。据官方介绍,OP03021是当前市场上唯一将像素阵列、驱动电路与存储单元全部集成于单一超低功耗芯片架构中的解决方案。这种高度集成的设计不仅大幅缩减了系统体积,也显著降低了整机功耗,为可穿戴设备的轻量化与全天候佩戴提供了关键支撑。更高分辨率、更广视场角,AR体验再升级OP03021采用0.26英寸光学格式,分辨率达1632×1536,并支持90Hz刷新率。这一规格使得下一代智能眼镜在保持紧凑外形的同时,能够实现更高清晰度与更宽广的视场角--两者均为提升增强现实沉浸感与佩戴舒适性的核心要素。豪威科技物联网与新兴市场部营销总监DevangPatel表示:"智能眼镜正迅速成为最具潜力的消费电子新品类之一,未来普及程度有望比肩智能手机。我们很荣幸能与众多头部智能眼镜设计厂商和制造商深度合作,共同推动这一产品走向大众日常使用。"目前,OP03021LCOS面板样品已开放申请,预计将于2026年上半年进入量产阶段。
流媒体巨头Netflix正式宣布收购虚拟化身平台ReadyPlayerMe,旨在为其快速扩张的NetflixGames业务构建统一的用户身份系统。据TechCrunch报道,交易具体条款未披露,但ReadyPlayerMe约20人的团队将整体并入Netflix,仅CTORainerSelvet加盟,其余三位联合创始人选择留任外部。虚拟身份作为游戏生态的底层接口成立于2014年的ReadyPlayerMe总部位于爱沙尼亚塔林,核心能力在于提供标准化、可跨平台迁移的3D用户化身。过去十年,其服务已接入包括VRChat在内的数十个Web2与Web3应用,成为事实上的"通用头像协议"之一。此次收购标志着Netflix不再满足于单款游戏分发,而是着手搭建具备身份延续性的游戏生态。通过ReadyPlayerMe的技术,用户未来可在不同Netflix游戏中使用同一虚拟形象,强化归属感与社交粘性--这正是当前移动游戏普遍缺失的关键体验。服务将于2026年终止,技术或深度整合值得注意的是,ReadyPlayerMe同步宣布将于2026年1月31日停止对外提供独立的头像创建服务。此举暗示其技术栈将全面转向Netflix内部使用,不再作为第三方开放平台运营。公司此前累计融资7200万美元,投资方包括a16z、Endeavor、KonvoyVentures及Roblox、Twitch、King等平台的创始成员,足见行业对其互操作性愿景的认可。其2022年完成的5600万美元B轮融资,或已成为通向战略退出的关键跳板。对VR/AR行业而言,此次收购释放明确信号:主流平台正从"内容聚合"转向"身份+社交+内容"三位一体的生态竞争,而可移植的虚拟化身,正成为下一代交互基础设施的关键一环。
在近日于布鲁塞尔举办的UnitedXR大会上,智能隐形眼镜开发商XPANCEO首次公开展示其专为轨道、月球及深空任务设计的最新智能隐形眼镜原型。该设备与宇航服头盔集成,旨在解决传统可穿戴界面在太空环境中的根本性局限。太空场景下的交互痛点催生新方案在舱外活动中,宇航员佩戴厚重手套,难以操作触屏设备--现实中甚至需用鼻子点击平板。同时,智能眼镜等头戴设备在微重力或密闭空间中易造成视野遮挡、重心偏移或碰撞风险。XPANCEO指出,现有交互方式高度依赖语音指令,信息反馈缺乏视觉锚定,影响操作效率与安全性。其新原型通过将全息显示直接投射至视网膜,构建"零干扰"数据界面:既不阻碍视线,也不增加头部负载,确保宇航员在复杂任务中保持自然姿态与快速响应能力。技术架构:模块化设计支持多路径演进当前原型采用分体式架构--隐形眼镜本身集成微型光学元件,而图像源与电源模块嵌入宇航头盔内部,通过无线方式供能与传输数据。XPANCEO强调,该配置具备高度灵活性,未来可适配不同光学方案,包括已在其他原型中验证的集成式微显示屏版本。该思路延续了公司此前在赛车头盔中应用全息显示的经验,但针对极端环境(如真空、辐射、温变)进行了可靠性强化。成立于2021年的XPANCEO致力于将AR、生物传感与健康监测融合于单片智能隐形眼镜。其技术矩阵已涵盖:AR视觉透镜、无线供能伴侣设备,以及内置微型电池的自主运行版本。此次太空原型不仅是场景拓展,更是对其"无感计算"理念在高可靠性领域的关键验证。对航天、工业AR及远程操作领域而言,XPANCEO的方案提供了一条摆脱手持或头戴设备束缚、实现真正"眼即界面"的技术路径。
在纽约曼哈顿,沉浸式娱乐公司Eclipso推出的《泰坦尼克号:往昔回响》(Titanic:EchoesFromThePast)正成为位置级VR在历史教育领域的一次标杆实践。该体验利用自由漫游VR技术,在10,000平方英尺空间内还原了泰坦尼克号从深海残骸到启航前的关键场景,为观众提供兼具尺度感、交互性与叙事深度的沉浸式学习环境。手势自由+无背包设计:降低大规模部署门槛Eclipso采用HTCViveFocus3一体式头显,无需外接PC背包、身体追踪器或外部基站。用户仅需佩戴头显与定制音频耳罩,一分钟内即可进入体验。这种极简硬件配置显著降低了运营复杂度,也提升了首次接触VR用户的接受度--据现场反馈,多数参与者此前从未使用过VR设备。在关键动线中,系统通过动态叠加半透明全息网格(如模拟下潜时的地面参考面),有效缓解晕动症,同时维持视觉沉浸。这种"隐形"的舒适性设计,体现了对大众化部署场景的工程考量。空间叙事驱动历史理解体验以现代科考船为起点,引导用户下潜至3,800米深的沉船遗址,随后回溯至1912年处女航的关键节点:引擎室、甲板、健身房、大楼梯与舰桥。每个场景均基于历史资料建模,并通过环境叙事(而非强引导)传递信息。例如,在引擎室中,VR对工业尺度的真实还原让用户直观理解蒸汽动力系统的运作逻辑;在舰桥冰山碰撞场景,近距离呈现冰山体积,强化灾难发生的物理必然性。这种"可行走的历史档案"模式,使抽象史料转化为具身认知。多人共享体验促进协作学习系统支持多人同时进入同一虚拟空间,参与者以白色线框轮廓呈现,既保留空间定位,又避免复杂虚拟形象干扰环境注意力。实际运行中,用户常自发交流发现(如呼叫同伴查看特定细节),形成自然协作学习行为。该特性已吸引多所中小学将其纳入校外教学项目。教育者反馈,学生对历史事件的记忆留存率显著高于传统课堂--VR提供的不仅是信息,更是"我在场"的感知锚点。行业启示:LBVR在文化遗产领域的可扩展路径《泰坦尼克号:往昔回响》展示了LBVR在文化遗产再现中的三大优势:高保真空间复现:突破屏幕限制,还原真实尺度;低操作门槛:一体机方案适配非专业用户;可规模化复制:Eclipso已在多个城市部署同类场馆,验证商业模式可行性。随着硬件成本下降与内容工具链成熟,此类"可行走的历史博物馆"有望成为文旅、教育与档案机构数字化转型的新载体。
Meta近日为其面向Unity引擎的InteractionSDK发布了重要更新(v83),不仅引入了三种全新的手部追踪移动模式,还大幅增强了投掷系统的可定制性。这一升级进一步降低了开发者在构建高质量VR交互体验时的重复开发成本,也为用户提供了更统一、直观的操作逻辑。InteractionSDK是Meta提供的一套Unity框架,旨在为控制器和手部追踪设备提供标准化的高质量交互功能,包括直接抓取、远程抓取、可交互UI元素、手势识别等。借助该SDK,开发者无需从零构建基础交互逻辑,用户也无需在不同应用间反复适应操作方式。值得注意的是,尽管Meta也为UnrealEngine提供了InteractionSDK,但其功能远不如Unity版本完善--此次新增的移动与投掷特性目前仅限Unity平台使用。手部追踪迎来三大新移动模式早在近三年前,InteractionSDK就已支持无控制器的手部追踪瞬移系统,并配套上线了演示应用。如今v83版本在此基础上,一口气推出了三种创新移动方案:"Telepath"移动:瞬移与平滑移动的融合用户通过拇指轻触食指侧面这一微手势即可启动移动。与传统瞬移不同,选定目标点后角色会平滑滑行至目的地。若路径中存在可跳跃障碍物,系统还会自动触发跳跃动作,实现流畅穿越。"WalkingStick"移动:虚拟手杖推动前行该模式为玩家提供一对可选是否可见的虚拟手杖,通过向下按压虚拟地面产生推进力,从而实现前进。其灵感虽类似《GorillaTag》中的移动机制,但针对站立高度和纯手部追踪进行了专门优化,不再依赖控制器模拟四肢。攀爬系统支持手部追踪多数VR游戏的攀爬功能依赖控制器扳机触发抓握,而新版SDK将"可抓取"概念扩展为"可攀爬",使纯手部追踪也能实现攀爬。其核心逻辑恰好相反:不再是将物体拉向玩家,而是将玩家拉向固定抓点。投掷系统支持多类型运动轨迹定制除了移动方式的革新,Meta还对投掷系统进行了深度优化,使其能适配多种现实世界的投掷行为。开发者现在可基于同一套框架,轻松实现以下效果:飞镖、篮球等强调精准度的直线投掷保龄球等带有重量感的抛物线运动飞盘式的旋转飞行轨迹玉米洞、美式足球等特定运动的物理表现所有这些投掷模式均针对无控制器的手部追踪场景进行了调优,确保自然且响应灵敏。值得一提的是,InteractionSDK自一年多前起已支持非Meta品牌的VR头显。这意味着面向pico、HTCVive等平台的开发者,同样可以利用此次更新中的手部追踪移动与投掷功能,提升跨平台体验的一致性。
VR52网成立于2015年,平台提供VR头显、AR眼镜、配件外设、厂商、测评、行业资讯、游戏与应用、展会活动等。