在即将迈入发售第十个年头之际,《无人深空》(NoMan'sSky)迎来名为"Remnant"的全新更新。此次内容不仅扩充了玩家的工具库,还引入了一套围绕废料回收构建的全新玩法循环,进一步丰富了这款太空沙盒模拟器的沉浸体验。本次更新的核心新增装备是"引力子线圈"--一款集成于多功能工具上的反重力装置。开发者将其描述为"可抓取大型物体,并随意投掷、抛射或精细搬运的强大模块"。乍看之下,它像是一个工业级搬运工具;但在必要时,玩家也能将巨石、残骸甚至敌方载具当作弹药,将其化作致命投射物,实现"就地取材"的暴力输出。除了新武器,《Remnant》还构建了一套以"打捞-运输-回收"为核心的协作玩法。玩家可单人行动,也可组队协作,在星球表面或废弃飞船残骸中收集废料,装入货运卡车,运往工业回收站进行处理。回收后不仅能获得资源奖励,还可解锁数十种全新载具部件以及一套全新装甲套装,为探索与战斗提供更丰富的自定义选项。配合此次更新,游戏同步上线了一项限时社区远征活动:玩家需组成车队,共同清理一颗被残骸与垃圾覆盖的星球,通过集体协作完成环境修复任务,获取专属奖励。持续进化:十年如一日的更新长跑"Remnant"延续了上一版本"Breach"对废弃空间残骸的探索设定,是《无人深空》长达近十年持续迭代的又一里程碑。自2016年在传统平面平台首发以来,该游戏已历经数十次大型更新,逐步从争议之作蜕变为业界公认的"更新典范"。值得一提的是,在VR领域,《无人深空》同样走在前列。它不仅是首批支持PSVR2的游戏之一,更是首款应用PS5ProPSSRAI超分技术的PSVR2作品。该技术利用神经网络对游戏画面进行智能升频,在保持性能的同时显著提升画质,远超传统图像放大算法。目前,"Remnant"更新已在Steam、PSVR2及所有平面平台同步上线。
新西兰沉浸式学习解决方案提供商SkillsVR近日正式推出名为"EVA"的AI驱动学习助手。该系统旨在统一虚拟现实、移动端和网页端的员工培训体验,并在学习过程中提供实时指导,同时自动记录学习数据。EVA并非独立产品,而是构建于SkillsVR现有平台之上的智能层。其核心目标是让培训管理者清晰掌握学员的学习进度与能力准备情况,而无需额外增加操作复杂度。据官方介绍,学员在培训中的每一次决策、交互和练习,都将无缝汇入同一系统,使组织能够真正"看见"培训成效。一套内容,多端协同:EVA如何运作?EVA的工作流程始于企业将现有培训资料--包括文档、视频、操作规程或已有课程模块--上传至SkillsVR平台。随后,系统可根据预期学习目标配置EVA的角色。企业可灵活选择AI助手在培训中扮演以下四种角色之一或组合使用:教师(Teacher):讲授培训内容;教练(Coach):引导实操演练;评估员(Assessor):检验知识掌握程度;支持(Support):基于企业授权知识库回答学员问题。配置完成后,EVA即可跨VR、手机和平板等设备同步交付培训内容。学员在模拟场景中进行决策、练习和测评时,能即时获得上下文相关的辅助,而非依赖训后反馈。更重要的是,所有学习行为--包括选择、回答和进度--均被EVA实时捕获并自动同步至SkillsVR平台,彻底消除手动填报或系统割裂带来的数据断层。聚焦高风险行业:解决"三不管"培训痛点SkillsVR表示,EVA的设计源于其多年服务医疗、司法矫正、政府及高危作业一线团队的经验。这些领域普遍存在一个共性难题:培训内容、终端设备与评估报告分散在不同系统中,形成信息孤岛。"我们最初并不是为了做AI而做AI,"SkillsVR首席执行官JamesCoddington坦言,"我们只是想解决反复出现的痛点--培训负责人疲于奔命,学员得不到及时支持,各系统之间互不相通。"目前,EVA已正式上线,并正在多个大型培训项目中规模化应用。
2026年2月17日起,任天堂将通过SwitchOnline+ExpansionPack会员服务正式推出《VirtualBoy经典游戏合集》。这是自1995年该主机停产后,时隔三十余年,任天堂首次以官方形式重新发布VirtualBoy的游戏内容。为体验这些原生支持立体3D效果的游戏,用户不仅需订阅高级会员服务,还需额外购买任天堂推出的两款新配件--一款是售价99.99美元(约合人民币720元)的塑料复刻版VirtualBoy头显,另一款则是定价24.99美元(约合人民币180元)的纸质模型。LaboVR能否"曲线救国"?值得注意的是,有消息称2019年推出的LaboVR--那款基于纸板DIY、早已停产的Switch外设--或许也能运行VirtualBoy游戏。一位任天堂代表曾公开表示,LaboVR在功能上与新款纸质VirtualBoy头显"效果相当"。然而,这一说法很快被公司官方"打脸"。任天堂迅速发布声明强调,LaboVR并未获得对VirtualBoy内容的官方支持,并建议用户优先选购新推出的专用设备。这种前后矛盾的说法引发了不少猜测。一方面,VirtualBoy采用的是主动式立体3D显示技术,而LaboVR原本是为Switch平面屏幕设计的简易VR方案,两者在技术原理上存在差异;另一方面,也不排除任天堂有意推动新品销售,从而淡化LaboVR的存在感。目前唯一能验证真相的方式,就是在2月17日服务上线后亲自测试。据任天堂明确说明,若无立体3D头显设备,用户将无法在Switch上运行VirtualBoy经典游戏。官方入场,终结民间模拟时代事实上,多年来玩家社区早已通过非官方手段在现代VR设备上运行VirtualBoy游戏。但此次是任天堂自1996年停售该主机以来,首次以第一方身份重新包装并发行相关产品,标志着这一"失败遗产"正式回归主流视野。
近日,Valve通过官方博客披露了旗下三大硬件产品线的最新进展--涵盖Steam手柄、Steam主机及VR设备SteamFrame。尽管面临内存、存储等核心组件的供应短缺挑战,团队明确表示:2026年上半年完成三款产品全部出货的目标保持不变。当前,受供应链波动影响,出货时间表与定价策略仍需重新评估。但考虑到市场环境的快速变化,Valve正谨慎推进相关工作,力求在确定具体细节后第一时间同步信息。SteamFrame核心技术:FoveatedStreaming如何改写VR传输规则?作为本次更新的重点,VR设备SteamFrame搭载了独家技术「FoveatedStreaming」。与传统的「注视点渲染」(FoveatedRendering)不同,该技术并非依赖设备端渲染,而是由主机仅向头显传输玩家视野中心的高分辨率画面数据--相当于为VR体验做了一次「视觉聚焦优化」。这一设计的优势在于:无需游戏开发者单独适配,所有VR游戏均可直接享受「降低渲染负载」的红利,大幅降低了技术门槛。此外,SteamFrame还将内置基于OS的浏览器视频流功能,进一步拓展使用场景;针对开发者的SDK工具包也在持续分发中,助力生态完善。从Index到Frame:设计逻辑转向开放与兼容与前款VR设备ValveIndex不同,SteamFrame并未延续对Lighthouse基站的依赖。Valve解释称,这一调整是为了让社区与第三方厂商能更自由地开发适配自身需求的功能与配件--设备采用模块化扩展设计,为个性化改造留足空间。同时,针对近视用户的佩戴体验,团队也特别说明:得益于框架结构的优化,多数眼镜用户可直接佩戴SteamFrame,无需额外调整。值得注意的是,经典VR头显ValveIndex已正式停止生产,但Valve强调,对现有用户的售后支持将持续进行。未来,团队还将围绕特定功能或主题,逐步释放更多深度信息。
在CES2026上,"PhysicalAI"(具身AI)成为贯穿全场的核心议题。曾经局限于屏幕与服务器中的AI,如今正通过机械躯体进入人类的生活空间。这种转变不仅带来技术上的突破,也引发了对人机共处方式的深层思考。力量的威慑:Unitree人形机器人格斗演示中国初创公司Unitree展出了两台人形机器人进行对抗性格斗的演示。它们通过强化学习优化动作策略,在展台上全力出拳、踢腿。即便被击中失衡,也能迅速恢复站立--展现出令人印象深刻的动态稳定性。尽管动作偶尔因判断失误而空挥,或因惯性摔倒,但一旦命中目标,其冲击力仍透露出一种原始而粗粝的力量感。由于演示被限制在围栏内,观众尚能安心观看;但若设想这些机器人出现在身边,那种不可控的"物理存在感"难免引发一丝不安。超越人体常识的运动逻辑:BostonDynamics的AtlasBostonDynamics宣布其人形机器人Atlas即将进入量产阶段。在一段模拟工厂作业的演示中,Atlas以高度拟人化的外形登场,却展现出完全违背人类运动直觉的动作模式:关节可360度旋转,无需预摆即可瞬间启动,所有动作都沿着最短、最高效的路径完成。人类习惯通过肩部姿态、视线方向等微小线索预测他人下一步行动,从而维持安全距离。但具身AI所采用的"最优解"往往跳脱这一认知框架--效率越高,越不像人。这种"非人感"并非缺陷,却构成了人机共处时的认知摩擦。要与这类拥有超常身体能力的AI共享空间,仅靠对技术的信任远远不够,还需新的交互范式与心理调适机制。值得一提的是,演示中操作员通过VR头显远程引导Atlas完成任务后,机器人便能自主复现整套流程,显示出从示教到自主执行的闭环能力。可预测的亲和力:Sentigent的ROVARX3在众多强调性能与效率的机器人中,SentigentTechnology展出的户外陪伴机器人ROVARX3显得格外温和。它在草地上奔跑、追逐球体、被抚摸时做出愉悦反应,动作节奏与情感表达贴近宠物犬的行为逻辑。这种设计刻意保留了人类可理解的上下文线索--我们能自然推测"它可能想玩""它喜欢被摸"。对于以陪伴、看护为目标的机器人而言,这种"可预测性"反而构成了用户体验的核心价值。空间级协同:富士通的SpatialWorldModel富士通展示的"SpatialWorldModel"技术提供了一种更高维度的解决方案。不同于单个机器人仅感知局部环境,该系统试图构建包含人、机器人、物体在内的整体空间模型,并进一步推断各方"意图",预测未来状态变化。在展台演示中,通过顶部摄像头与机器人本体视觉融合,系统实时追踪区域内动态。当有人靠近禁区,机器人会通过跺脚等明显动作发出警告;同时,地面投影直观显示其当前状态与决策逻辑。未来,若结合智能眼镜等个人设备,系统或可利用用户第一视角数据扩展感知范围,并通过AR轻量提示机器人下一步动作。这种"意图书写"式的沟通,或许能弥合人与非人实体之间的认知鸿沟。CES2026清晰地表明:具身AI已从概念走向落地。然而,技术演进的速度远超社会心理与交互设计的适应能力。当机器人真正走进街道、家庭与工作场所,人如何感知、信任并与其协作,将成为比算法精度更关键的问题。XR、空间建模与行为可解释性,或将成为构建"共处体验"的新基础设施。
Roblox近日正式发布了一项名为"4D生成"的新功能,该功能依托其自研AI模型"CubeFoundationModel",同时宣布4K纹理渲染能力向所有开发者开放。用自然语言生成可交互的3D对象所谓"4D生成",是指用户通过文本提示(prompt)即可创建具备特定行为能力的3D对象。例如,输入"一辆能驾驶的汽车",系统不仅会生成车辆外观,还会赋予其可操控的驾驶逻辑;输入"一架能飞行的飞机",生成的模型即具备起飞、巡航等基础飞行动作。这种能力让虚拟对象的行为更贴合用户的预期意图。支撑这一功能的是CubeFoundationModel及其底层的Schema系统。Schema会自动为生成对象分配功能性组件--比如车轮需支持旋转、机身需具备空气动力学结构等。这种结构化建模方式大幅降低了动态3D内容的创作门槛。据Roblox开发者Laksh透露,在实际项目中应用该功能后,玩家平均游玩时长提升了64%。目前,系统已内置车辆、飞行器等有限类别的Schema,未来计划扩展至任意物体类型。4K纹理渲染正式开放,兼顾画质与性能在图形表现方面,Roblox现已支持最高4096×4096像素的纹理渲染。开发者只需上传高分辨率图像资源并在体验中引用,系统便会根据运行环境智能调度。具体而言,当客户端设备具备足够算力,且引擎判断当前视角下的对象值得使用高分辨率纹理时,将自动以4K质量流式加载;若设备资源受限,则无缝降级至适配内存预算的低分辨率版本。官方强调,该机制可在不显著增加低端设备崩溃率或内存占用的前提下,释放高画质潜力。其他技术进展:环境生成与NPC智能化Roblox还披露了两项正在推进的技术方向。其一是"实时梦境",可根据文本或图像提示快速生成基础虚拟场景,当前生成速度约为每秒16帧,团队正致力于提升输出画质。另一方向是智能NPC的开发。通过学习平台积累的1,380亿小时玩家互动数据,这些NPC有望实现基于上下文的自主推理与响应,而不仅限于预设脚本行为。
从"看影像"到"用AI":眼镜型设备的路线分化在2026年美国拉斯维加斯举办的CES展会上,眼镜形态的可穿戴设备呈现出明显的演进分野。过去以增强现实为核心、强调空间叠加视觉内容的AR眼镜正逐渐让位于一类新物种--"AI眼镜"。后者不再执着于构建沉浸式虚拟画面,而是聚焦于生成式AI的日常交互,将眼镜作为语音助手、实时翻译、信息提示等智能服务的轻量化入口。这一转变标志着行业重心正从"技术炫技"转向"实用嵌入",也预示着可穿戴设备正在寻找真正融入用户生活的路径。典型产品:三类AI眼镜的实用主义实践NuanceAudio:无屏听觉增强眼镜这款产品彻底摒弃了显示屏,外观与普通粗框眼镜无异,却通过波束成形(Beamforming)技术定向放大前方说话者的声音。它不叠加视觉信息,而是以技术手段自然延伸人类听觉能力,代表了一种"非视觉中心"的可穿戴思路。EvenRealitiesG1/G2:信息提示型AI眼镜搭载单色绿色微型显示屏,仅用于呈现AI生成的文字内容--如演讲提稿、通知提醒或实时翻译。设计极度低调,几乎无法与普通眼镜区分。其在日本已上市的G2版本进一步扩大可视区域,并支持与智能指环"EvenR1"联动,实现单手操作,强化了"信息辅助"而非"娱乐沉浸"的定位。LLVisionLeionHey:沟通导向的字幕眼镜专注于跨语言与无障碍交流,能将对话内容实时以字幕形式投射至镜片。不仅服务于多语种用户,也为听障人士提供沟通支持。其核心逻辑是"看见语言",而非"观看视频",凸显AI在社会性场景中的工具价值。配套生态:输入、隐私与生物信号的新解法随着AI眼镜普及,如何私密、高效地进行交互成为关键瓶颈。CES上涌现出一批旨在与眼镜协同工作的辅助设备:Wearphone:形似口罩的可穿戴麦克风,覆盖口部实现无声语音输入,解决公共场合使用AI语音助手的隐私顾虑;AIVELARingPro:多功能智能指环,通过触控与手势远程操控眼镜界面,避免频繁触摸镜腿;MudraBand:AppleWatch专用表带,利用表面神经传导(SNC)技术捕捉手指微动,实现无接触手势控制;OVOMIND:情感识别手环,通过生理信号分析用户情绪状态,未来或可驱动AI眼镜提供情境感知式响应。这些设备共同指向一个趋势:AI眼镜不会孤军奋战,而是作为"感知-交互-反馈"闭环中的视觉节点,与其他可穿戴硬件组成协同系统。路线之争:AR与AI眼镜的本质差异尽管两类设备常被混为一谈,但其底层逻辑已明显分化:AR眼镜追求空间计算与视觉沉浸,目标是"在现实世界中叠加数字体验";AI眼镜则聚焦任务效率与信息获取,目标是"让AI服务无缝介入日常生活"。值得注意的是,许多AI眼镜虽配备显示屏,但其用途仅限于简洁文字提示,拒绝复杂图形渲染。这说明分类标准不应是"有无屏幕",而应是"提供何种体验"--是视觉奇观,还是实用信息?回归"眼镜"本质:可穿戴设备的务实进化本届CES透露出一个清晰信号:行业正放弃对"未来感"的执念,转而拥抱"日常感"。与其发明全新形态的穿戴装置,不如直接复用人类已习惯百年的"眼镜"这一载体,在其上叠加恰到好处的智能功能。这种"地气十足"的演进路径,或许比炫目的全息投影更接近可穿戴设备的终极目标--不是让用户适应技术,而是让技术隐形于生活。如今,用户不再需要在"要不要用AR"之间做选择,而是可以根据自身需求,在"看影像"和"用AI"之间自由匹配。这种基于场景的自然分化,或许正是可穿戴生态走向成熟的真正标志。
今年春季,《忍者神龟》将以全新姿态登陆MetaQuest、SteamVR及pico平台--这是该IP史上首款专为虚拟现实打造的沉浸式体验作品《忍者神龟:帝国城市》(TeenageMutantNinjaTurtles:EmpireCity)。游戏定价24.99美元,目前已开启MetaQuest平台预购,早鸟用户可享20%折扣。伴随发售信息同步释出的还有全新玩法预告片:玩家将化身神龟,穿梭于漫画风格的纽约下水道与屋顶之间--跳跃、潜行、攀爬,在充满烟火气的都市阴影里与臭名昭著的脚帮及其首领施莱德展开激战。没有「上帝视角」的疏离感,只有「成为神龟」的真实代入感。不是「选角色」,是「成为角色」:创意总监谈设计逻辑作为一款从底层为VR打造的游戏,《帝国城市》的核心关键词是「沉浸」与「可选合作」。创意总监艾斯·圣杰曼(AceSt.Germain)强调:「这款游戏的精髓从来不是『扮演』某只神龟,而是『成为』某只神龟。」区别于传统游戏的「预设职业」框架,《帝国城市》摒弃了固定技能树或角色定位--玩家的玩法完全由「构建选择」「装备搭配」与「操作习惯」决定。无论是想当擅长近战的「战斗型」李奥纳多,还是偏好潜行的「侦查型」拉斐尔,都能通过自定义组合找到属于自己的神龟形态。「你可以自由定义每一次冒险的展开方式」,圣杰曼补充道。开发者揭秘核心玩法:战斗、移动与合作怎么玩?为进一步拆解游戏细节,团队同步发布了开发者日记视频,深度解读三大核心系统的设计思路:战斗系统:依托VR的交互特性,玩家可通过手柄模拟神龟的经典动作(如投掷手里剑、挥舞武士刀),打击反馈与敌人的AI反应均针对VR做了适配;移动机制:下水道攀爬、屋顶跳跃等场景均采用「物理引擎驱动」,避免VR常见的「晕动症」,同时保留「高空坠落」的真实紧张感;合作模式:支持单人或最多4人联机,队友间可配合完成「引敌+偷袭」等战术,甚至能共享视野解决复杂谜题。试玩机会来了:限时Demo下月上线想提前尝鲜的玩家可以关注2月23日启动的SteamNextFest--届时将推出限时单人Demo,包含游戏前15分钟内容,且支持「四只神龟逐一试玩」。不过这款Demo的「有效期」很短,3月2日就会从平台下架,感兴趣的玩家需抓紧时间。随着发售日临近,关于《帝国城市》的更多细节(如剧情线、隐藏关卡)也将逐步揭晓,不妨持续关注后续报道。
VR电竞仍在爬坡,但新尝试从未停止尽管虚拟现实(VR)生态整体发展稳健,但VR电竞的普及速度始终未达行业预期。早在2019年,ESL(电子竞技联盟)和VRML(虚拟现实大师联赛)等组织就已陆续为《PistolWhip》《Blaston》以及已停服的《EchoVR》等作品举办赛事,但传统电竞的爆发式热度始终未能在VR领域复现。如今,以《Moss》系列闻名的开发商PolyarcGames正试图改变这一局面。其最新推出的MOBA风格竞技游戏《Glassbreakers:ChampionsofMoss》将举办首场官方赛事--"冠军锦标赛"(TournamentofChampions),并与VALVR合作承办。目前报名通道已在《Glassbreakers》Discord服务器开放,正式比赛定于2月15日打响。小而精的赛事设计,聚焦玩家参与感本次赛事总奖金池为1000美元,其中冠军可获400美元,亚军250美元,季军150美元,第四名120美元,第五名80美元。所有参赛选手还将获得限定外观奖励作为参与纪念。虽然奖金规模不大,但其核心目标并非打造职业化联赛,而是通过低门槛、高回馈的方式激发社区活跃度。免费试玩+订阅福利,双线推动用户增长此次锦标赛是Polyarc为期一个月的社区建设活动的高潮。为降低体验门槛,《Glassbreakers》本月被纳入MetaHorizonPlus订阅服务的免费精选游戏阵容;同时,SteamVR平台也将在2月5日至8日开启免费周末,供玩家无成本试玩。目前,《Glassbreakers:ChampionsofMoss》已在SteamVR、MetaQuest平台以19.99美元售价发售,并同步登陆AppleVisionPro,通过AppleArcade提供服务。
据路透社等主流媒体报道,苹果以约16亿美元收购了成立于2022年的初创公司Q.ai。若该金额属实,这将成为苹果史上第二大收购案,仅次于2014年30亿美元收购Beats。尽管Q.ai自创立以来一直保持"隐身模式",对其技术细节守口如瓶,但其创始团队背景与专利文件已透露出明确方向--该公司专注于"无声语音"识别技术,即将用户未发出声音的唇舌与喉部肌肉微动转化为文本。这项能力对苹果正在秘密推进的智能眼镜项目至关重要。在公共场合中,用户无需开口即可向AI助手下达指令或发送私密信息,既保障隐私,又避免社交尴尬--这正是可穿戴设备取代智能手机必须跨越的关键体验门槛。创始团队:视觉感知领域的"梦之队"Q.ai的三位联合创始人均出身于顶尖感知技术公司。CEOAviadMaizels曾创立PrimeSense--该公司于2013年被苹果收购,其深度传感技术直接催生了FaceID,并曾为微软初代Kinect提供核心方案。CTOYonatanWexler博士则是世界级计算机视觉专家,曾任OrCam研发副总裁,主导将高端视觉算法压缩进可夹在眼镜上的微型设备中。如此阵容暗示,Q.ai的技术路径并非依赖贴附式生物传感器,而是另辟蹊径。视觉方案vs.肌电传感:两条技术路线之争"无声语音"并非全新概念。另一家名为Alterego的初创公司采用硬件方案,在用户下颌佩戴肌电传感器捕捉肌肉电信号。而Q.ai的专利《无声语音检测》(Detectionofsilentspeech)则揭示其独特思路:通过朝向用户面部的微型摄像头,捕捉面部反射光的变化,从而推断出未发声的言语动作。专利中描述了一种"位于用户面部附近的光学传感头",能"感应从面部反射的光线并输出相应信号"。这意味着无需接触皮肤,仅凭视觉即可实现语音意图识别--这一特性天然适配眼镜形态设备。苹果的整合前景:从VisionPro到下一代智能眼镜业内普遍预期,Q.ai的技术将首先集成至AppleVision系列头显,随后延伸至AirPods耳机柄部,最终落地于传闻已久的苹果智能眼镜。知名记者MarkGurman与分析师郭明錤均指出,苹果正全力开发轻量化AR眼镜,而输入方式正是最大瓶颈之一。相比之下,Meta选择另一条路径:让用户在大腿等表面手写字符,通过佩戴在手腕的sEMG频带识别动作。无论哪种方案胜出,一个共识已然形成--在公共场景中实现私密、高效、无干扰的文本输入,是智能眼镜能否真正替代手机的核心前提。
在一月落幕的CES2026上,一个趋势已无可争议:智能眼镜不再只是小众实验品,而正在快速演变为一个具备成熟供应链、重磅合作与真实应用场景的主流硬件赛道。从专为游戏优化的高刷设备,到下一代光波导技术,展会现场与闭门演示中密集发布的新品,预示着增强现实(AR)与扩展现实(XR)即将迎来爆发之年。XREAL成最大赢家:高刷屏、谷歌合作与亿元融资三连击中国厂商XREAL无疑是本届CES最受瞩目的玩家。其宣布与华硕ROG联手推出全球首款240Hz刷新率智能眼镜,瞄准硬核游戏玩家对极致流畅画面的需求。该设备不仅可作为便携式游戏显示器,连接PC后还能胜任生产力任务,进一步强化其"多场景终端"定位。更关键的是,XREAL宣布与Google达成多年期战略合作--这不仅是2026年首项重大AndroidXR开发动态,也暗示其不会因ProjectAura的阶段性结束而退出AndroidXR生态。此外,公司同步披露已完成1亿美元新一轮融资,彰显资本对其长期技术路线的高度认可,也为后续产品迭代与全球扩张提供了充足弹药。Viture推出"野兽级"新品,3DoF追踪引爆竞争另一家中国品牌Viture在私密展间展示了代号为"TheBeast"(野兽)的新一代设备。其显示素质堪称惊艳,但真正具有战略意义的是首次引入3自由度(3DoF)头部追踪功能--这意味着Viture正式切入与XREAL直接竞争的沉浸式交互赛道。业内预计,这项能力将在2026年下半年逐步下放至更多品牌产品线,推动整机体验升级,并让消费者以更优价格获得更高性能设备。Lumus光学突破:70°视场角光波导指明AR未来方向本届展会最佳技术演示来自光学方案商Lumus--Meta多款AR眼镜的核心供应商。其最新发布的几何光波导技术实现了70°视场角(FOV),较当前主流产品提升近一倍。尽管该方案不会在2026年落地消费端,但有望于未来两年内集成至高端设备。其优势在于:光效高、无漏光(消除"眼Glow"问题)、轻量化且画质保真。一旦量产,AR眼镜将从"信息提示器"真正进化为"沉浸式视觉入口"。供应链成熟催生新玩家涌入,价格带迅速拓宽CES2026的另一显著趋势是大量新品牌入局。Amazfit(华米)、XGIMI(极米)等原本聚焦可穿戴或投影领域的厂商,纷纷推出自有AR眼镜。背后原因清晰:核心模组与参考设计已高度标准化,企业只需微调即可快速推出有竞争力的产品。这一变化大幅降低行业门槛,加速产品多样化,并推动价格覆盖从入门到旗舰的全区间--智能眼镜正从"早期尝鲜者专属"转向"大众消费品"。超越"AI万能论":真实应用场景开始落地尽管"AI"仍是厂商解释智能眼镜价值的默认答案,但CES展示了更具体的用例:移动支付:Rokid演示通过眼镜完成NFC支付,钱包或将被彻底取代;健身指导:Amazfit与Meta均展示实时运动数据叠加,让眼镜化身私人教练;健康监测:如RealitiesG2已通过R1智能戒指整合心率、血氧等生理指标;主动式AI助手:AI不再被动应答,而是能监听对话并主动插入相关信息。这些进展表明,智能眼镜的价值正从"炫技"转向"实用"。2026:智能眼镜走向大众化的关键拐点综合来看,CES2026传递出强烈信号:智能眼镜产业已进入"技术-生态-应用"正向循环。XREAL的生态布局、Viture与RayNeo的体验升级、Lumus的底层光学突破,加上供应链成熟带来的百花齐放,共同构筑了规模化普及的基础。真正的考验在于:消费者是否愿意在游戏与健身之外,将智能眼镜融入日常生活?随着AI变得更主动、场景更丰富,答案或许比想象中来得更快。
作为MetaQuest平台销量最高的高尔夫游戏,《GOLF+》正迎来其有史以来最大规模的扩展计划。开发商近日公布了雄心勃勃的2026年路线图,涵盖新功能、新球场,以及备受期待的PCVR版本--将通过Steam正式发布。跨平台统一体验成核心目标《GOLF+》创始人RyanEngle透露,团队正致力于打造"全平台统一的游戏体验",确保所有设备(包括Quest、MetaPCVRStore及即将上线的Steam)共享一致的物理引擎、多人联机系统与跨平台互通能力。这意味着无论玩家使用何种设备,都能在同一球场上竞技,且球的飞行轨迹、反弹逻辑等核心机制完全一致。目前,《GOLF+》已在Meta生态内取得显著成功:截至2025年2月,Quest版销量突破150万份,位列Meta历史畅销榜第15位。游戏本体售价30美元,包含3座初始球场,另有34座付费DLC球场可单独购买,或通过每月10美元的GOLF+Pass订阅服务全部解锁。Steam版将带来画质提升,PSVR2移植或紧随其后Engle特别强调,此次登陆Steam不仅是平台拓展,更将带来图形层面的增强,充分利用PCVR更强的算力提供更高分辨率、更精细的光影与环境细节。值得注意的是,PCVR版本被视为通往下一代主机VR的关键跳板。Engle明确表示:"当前所做的工作,正是为未来可能的PSVR2版本铺路。"这暗示索尼平台的移植已在技术规划之中,而Steam版的开发经验将直接复用于后续适配。此外,2026年更新还将引入全新社交大厅,优化用户界面,并新增超过12座官方球场,进一步丰富游戏内容生态。
Meta正通过其公共测试通道(PTC)向部分用户推送HorizonOSv85的预发布版本。作为Quest系列VR头显的系统更新测试渠道,PTC允许用户提前体验即将上线的功能--尽管部分功能可能在正式版中调整或移除。本次测试版中,有两项关键新特性值得关注:SurfaceKeyboard虚拟桌面键盘与Quest3S动作按钮自定义。SurfaceKeyboard:无需外设,桌面即键盘在XR设备上输入文字一直是个难题,尤其当用户未携带蓝牙物理键盘时。为此,Meta在Quest3上独家推出了一项实验性功能--表面键盘,可将任意实体平面(如桌子、书桌)转化为虚拟键盘。使用时,用户只需将双手平放在目标表面上,系统会在几秒后自动生成与桌面贴合的虚拟键盘。这一过程同时完成高度校准,使按键位置更符合真实打字习惯。初步体验显示,该键盘识别准确度令人印象深刻。相比悬浮在空中的传统虚拟键盘,能将手自然放置在实体表面上显著提升了输入速度与舒适度。目前,SurfaceKeyboard仅在HorizonOS主界面(包括透视模式和纯虚拟空间)中可用。Meta已为开发者提供悬浮键盘的API,但尚未公布SurfaceKeyboard的开放接口计划。若未来推出相应SDK,第三方应用或将快速集成这一能力。值得注意的是,该技术并非一蹴而就。Meta至少从六年前便开始相关研究。2023年,公司高管曾展示接近成品的原型机,扎克伯格甚至声称自己可达每分钟100字的输入速度--但当时需在桌面上粘贴专用追踪标记。直到2024年,Meta与苏黎世联邦理工学院的研究人员发表论文,提出通过神经网络预测触控事件+语言模型校正的方式,实现了无需标记即可将任意表面变为键盘的技术突破。虽然Meta未明确说明当前功能是否直接基于该研究,但两者高度相关。目前,Quest3用户可在HorizonOSv85的"高级设置"中启用此功能。至于为何Quest3S暂未支持,官方尚未解释。Quest3S动作按钮终于可自定义尽管Quest3S无缘SurfaceKeyboard,但它在v85PTC中获得了专属新功能:动作按钮(ActionButton)重映射。自Quest3S发布以来,该侧边按钮仅用于一键切换透视模式--按下即暂停VR内容并显示现实环境,本质是"紧急查看周围"的快捷键。而在v85测试版中,Meta允许用户重新定义该按钮的功能。不过,由于目前尚未有媒体设备升级至该版本,具体可映射为何种操作仍待验证。若你已使用Quest3S运行v85PTC并尝试过此功能,欢迎反馈实际选项。其他变动:Navigator将成默认界面,HorizonFeed即将下线除上述功能外,Meta此前已宣布:从HorizonOSv85正式版起,全新"Navigator"用户界面将成为系统默认UI,同时HorizonFeed动态信息流将被移除。但在当前PTC版本中(至少在Quest3上),这两项变更尚未生效,大概率会采用Meta惯用的"渐进式rollout"策略逐步推进。
2025年8月,谷歌旗下AI研究实验室DeepMind发布了Genie3,展示了一套能够实时生成交互式虚拟环境的AI系统。如今,谷歌正式向部分用户开放该技术的实验性原型--GoogleAI订阅用户即可通过网页界面亲自体验。虽然目前尚不能"即时生成完整VR世界",但这一进展已让梦想中的"AI游戏引擎"轮廓初现。双提示输入+实时编辑,迈向生成式虚拟空间Google将ProjectGenie定义为"实验性研究原型",并非成熟的消费级产品。其核心功能是让用户通过网页界面创建、探索并修改交互式虚拟环境。与常见的图像或视频生成模型类似,Genie也依赖文本提示和/或参考图片作为输入。但它的设计更进一步:系统提供两个主要提示框--一个用于描述整体环境(如"中世纪城堡庭院"),另一个用于定义角色(如"持剑骑士")。此外,还有一个辅助提示框允许用户在最终生成前微调细节,例如"把剑变大"或"将树木改为秋季状态"。当前仍处早期阶段,功能与物理逻辑均有局限据谷歌官方博客说明,作为早期研究系统,ProjectGenie存在多项限制:生成的环境可能无法严格遵循真实物理规律;角色控制响应尚不稳定;单次会话时长限制为60秒;部分此前公布的高级功能尚未上线。目前,用户唯一可导出的内容是一段体验视频,但可以浏览并"混搭"平台画廊中其他用户创建的虚拟世界。该原型现阶段仅面向美国地区年满18岁的GoogleAIUltra订阅用户开放,未来计划逐步扩大可用范围。
2025年12月,Diver-X从CrossTechManagement获得力触觉反馈设备"EXOS"系列的业务许可。此举标志着Diver-X将全面强化在XR、机器人及物理AI等前沿领域中的操作交互体验。Diver-X此前已在手套式控制器中集成触觉反馈技术,但为实现更高层级的沉浸感,公司判断必须引入能对肌肉施加反作用力的力触觉技术。此次取得EXOS相关资产,正是其战略升级的关键一步。从外骨骼到机器人手:构建完整手部交互技术栈"EXOS"是一套外骨骼式力反馈装置,可精准模拟用户在虚拟环境中触摸数字物体时所感受到的阻力与反力。该技术最初由exiii开发,在该公司解散后由CrossTechManagement承接。如今,Diver-X通过授权获得了包括"EXOSWrist"(手腕刺激模块)在内的多项核心技术,以及覆盖五指触觉反馈的完整产品体系。此外,Diver-X还取得了原用于机器人手的基盘单元"HandUnit"的相关知识产权。这意味着公司已具备从人机交互输入端到机器人执行端的全链路手部操作技术能力。未来,这些资产将与Diver-X现有技术深度融合,推动下一代人机界面的商业化落地。聚焦远程操控与物理AI数据闭环下一步,Diver-X将重点投入机器人远程操作系统的开发,并计划在工业场景中推进物理AI所需的真实世界操作数据采集。公司认为,在虚实融合加速演进的背景下,高保真力触觉交互将成为连接数字指令与物理执行的核心桥梁。
伦敦AI视频平台企业Synthesia近日宣布完成2亿美元的E轮融资,公司估值由此攀升至40亿美元。本轮融资由谷歌旗下风险投资部门GoogleVentures领投,英伟达投资部门、知名风投机构KleinerPerkins等也参与其中。Synthesia专注于为企业客户提供基于高度拟真AI数字人的培训视频制作平台。该平台目前已支持160多种语言,被博世、默克、SAP等全球知名企业广泛采用。截至2025年4月,公司年经常性收入(ARR)已突破1亿美元,并在全球拥有超过500名员工,总部设于伦敦,业务覆盖多个国家和地区。从视频生成迈向交互式学习:Synthesia押注AI智能体在巩固其AI视频生成能力的基础上,Synthesia正将战略重心扩展至新一代AI智能体的开发。这类智能体具备自主对话能力,可让员工通过自然语言提问或参与角色扮演式模拟训练,实现更沉浸、高效的技能习得。初步测试数据显示,相比传统培训方式,基于AI智能体的交互式学习在用户参与度与知识留存率方面均表现出显著优势。Synthesia希望通过这一技术演进,将企业培训从"单向观看"升级为"双向互动",进一步提升组织学习效率。
VR52网成立于2015年,平台提供VR头显、AR眼镜、配件外设、厂商、测评、行业资讯、游戏与应用、展会活动等。