VR52——国内最大的VR&AR头戴式眼镜数据库

热门VR眼镜

热门VR眼镜对比

Meta Quest 3S详细参数

AR&MR游戏资讯

更多

PC硬件资讯

更多

Meta Quest 3S详细参数

  • AI训练助手EVA上线:SkillsVR打通VR、移动与Web培训闭环

    2026-02-07

    新西兰沉浸式学习解决方案提供商SkillsVR近日正式推出名为"EVA"的AI驱动学习助手。该系统旨在统一虚拟现实、移动端和网页端的员工培训体验,并在学习过程中提供实时指导,同时自动记录学习数据。EVA并非独立产品,而是构建于SkillsVR现有平台之上的智能层。其核心目标是让培训管理者清晰掌握学员的学习进度与能力准备情况,而无需额外增加操作复杂度。据官方介绍,学员在培训中的每一次决策、交互和练习,都将无缝汇入同一系统,使组织能够真正"看见"培训成效。一套内容,多端协同:EVA如何运作?EVA的工作流程始于企业将现有培训资料--包括文档、视频、操作规程或已有课程模块--上传至SkillsVR平台。随后,系统可根据预期学习目标配置EVA的角色。企业可灵活选择AI助手在培训中扮演以下四种角色之一或组合使用:教师(Teacher):讲授培训内容;教练(Coach):引导实操演练;评估员(Assessor):检验知识掌握程度;支持(Support):基于企业授权知识库回答学员问题。配置完成后,EVA即可跨VR、手机和平板等设备同步交付培训内容。学员在模拟场景中进行决策、练习和测评时,能即时获得上下文相关的辅助,而非依赖训后反馈。更重要的是,所有学习行为--包括选择、回答和进度--均被EVA实时捕获并自动同步至SkillsVR平台,彻底消除手动填报或系统割裂带来的数据断层。聚焦高风险行业:解决"三不管"培训痛点SkillsVR表示,EVA的设计源于其多年服务医疗、司法矫正、政府及高危作业一线团队的经验。这些领域普遍存在一个共性难题:培训内容、终端设备与评估报告分散在不同系统中,形成信息孤岛。"我们最初并不是为了做AI而做AI,"SkillsVR首席执行官JamesCoddington坦言,"我们只是想解决反复出现的痛点--培训负责人疲于奔命,学员得不到及时支持,各系统之间互不相通。"目前,EVA已正式上线,并正在多个大型培训项目中规模化应用。

  • 任天堂重启Virtual Boy:Labo VR竟成隐藏兼容方案?

    2026-02-07

    2026年2月17日起,任天堂将通过SwitchOnline+ExpansionPack会员服务正式推出《VirtualBoy经典游戏合集》。这是自1995年该主机停产后,时隔三十余年,任天堂首次以官方形式重新发布VirtualBoy的游戏内容。为体验这些原生支持立体3D效果的游戏,用户不仅需订阅高级会员服务,还需额外购买任天堂推出的两款新配件--一款是售价99.99美元(约合人民币720元)的塑料复刻版VirtualBoy头显,另一款则是定价24.99美元(约合人民币180元)的纸质模型。LaboVR能否"曲线救国"?值得注意的是,有消息称2019年推出的LaboVR--那款基于纸板DIY、早已停产的Switch外设--或许也能运行VirtualBoy游戏。一位任天堂代表曾公开表示,LaboVR在功能上与新款纸质VirtualBoy头显"效果相当"。然而,这一说法很快被公司官方"打脸"。任天堂迅速发布声明强调,LaboVR并未获得对VirtualBoy内容的官方支持,并建议用户优先选购新推出的专用设备。这种前后矛盾的说法引发了不少猜测。一方面,VirtualBoy采用的是主动式立体3D显示技术,而LaboVR原本是为Switch平面屏幕设计的简易VR方案,两者在技术原理上存在差异;另一方面,也不排除任天堂有意推动新品销售,从而淡化LaboVR的存在感。目前唯一能验证真相的方式,就是在2月17日服务上线后亲自测试。据任天堂明确说明,若无立体3D头显设备,用户将无法在Switch上运行VirtualBoy经典游戏。官方入场,终结民间模拟时代事实上,多年来玩家社区早已通过非官方手段在现代VR设备上运行VirtualBoy游戏。但此次是任天堂自1996年停售该主机以来,首次以第一方身份重新包装并发行相关产品,标志着这一"失败遗产"正式回归主流视野。

  • Valve硬件产品线最新动向:供应链承压不改发售决心,Steam Frame技术详解

    2026-02-06

    近日,Valve通过官方博客披露了旗下三大硬件产品线的最新进展--涵盖Steam手柄、Steam主机及VR设备SteamFrame。尽管面临内存、存储等核心组件的供应短缺挑战,团队明确表示:2026年上半年完成三款产品全部出货的目标保持不变。当前,受供应链波动影响,出货时间表与定价策略仍需重新评估。但考虑到市场环境的快速变化,Valve正谨慎推进相关工作,力求在确定具体细节后第一时间同步信息。SteamFrame核心技术:FoveatedStreaming如何改写VR传输规则?作为本次更新的重点,VR设备SteamFrame搭载了独家技术「FoveatedStreaming」。与传统的「注视点渲染」(FoveatedRendering)不同,该技术并非依赖设备端渲染,而是由主机仅向头显传输玩家视野中心的高分辨率画面数据--相当于为VR体验做了一次「视觉聚焦优化」。这一设计的优势在于:无需游戏开发者单独适配,所有VR游戏均可直接享受「降低渲染负载」的红利,大幅降低了技术门槛。此外,SteamFrame还将内置基于OS的浏览器视频流功能,进一步拓展使用场景;针对开发者的SDK工具包也在持续分发中,助力生态完善。从Index到Frame:设计逻辑转向开放与兼容与前款VR设备ValveIndex不同,SteamFrame并未延续对Lighthouse基站的依赖。Valve解释称,这一调整是为了让社区与第三方厂商能更自由地开发适配自身需求的功能与配件--设备采用模块化扩展设计,为个性化改造留足空间。同时,针对近视用户的佩戴体验,团队也特别说明:得益于框架结构的优化,多数眼镜用户可直接佩戴SteamFrame,无需额外调整。值得注意的是,经典VR头显ValveIndex已正式停止生产,但Valve强调,对现有用户的售后支持将持续进行。未来,团队还将围绕特定功能或主题,逐步释放更多深度信息。

  • 从格斗到陪伴:具身AI如何重新定义人机边界

    2026-02-06

    在CES2026上,"PhysicalAI"(具身AI)成为贯穿全场的核心议题。曾经局限于屏幕与服务器中的AI,如今正通过机械躯体进入人类的生活空间。这种转变不仅带来技术上的突破,也引发了对人机共处方式的深层思考。力量的威慑:Unitree人形机器人格斗演示中国初创公司Unitree展出了两台人形机器人进行对抗性格斗的演示。它们通过强化学习优化动作策略,在展台上全力出拳、踢腿。即便被击中失衡,也能迅速恢复站立--展现出令人印象深刻的动态稳定性。尽管动作偶尔因判断失误而空挥,或因惯性摔倒,但一旦命中目标,其冲击力仍透露出一种原始而粗粝的力量感。由于演示被限制在围栏内,观众尚能安心观看;但若设想这些机器人出现在身边,那种不可控的"物理存在感"难免引发一丝不安。超越人体常识的运动逻辑:BostonDynamics的AtlasBostonDynamics宣布其人形机器人Atlas即将进入量产阶段。在一段模拟工厂作业的演示中,Atlas以高度拟人化的外形登场,却展现出完全违背人类运动直觉的动作模式:关节可360度旋转,无需预摆即可瞬间启动,所有动作都沿着最短、最高效的路径完成。人类习惯通过肩部姿态、视线方向等微小线索预测他人下一步行动,从而维持安全距离。但具身AI所采用的"最优解"往往跳脱这一认知框架--效率越高,越不像人。这种"非人感"并非缺陷,却构成了人机共处时的认知摩擦。要与这类拥有超常身体能力的AI共享空间,仅靠对技术的信任远远不够,还需新的交互范式与心理调适机制。值得一提的是,演示中操作员通过VR头显远程引导Atlas完成任务后,机器人便能自主复现整套流程,显示出从示教到自主执行的闭环能力。可预测的亲和力:Sentigent的ROVARX3在众多强调性能与效率的机器人中,SentigentTechnology展出的户外陪伴机器人ROVARX3显得格外温和。它在草地上奔跑、追逐球体、被抚摸时做出愉悦反应,动作节奏与情感表达贴近宠物犬的行为逻辑。这种设计刻意保留了人类可理解的上下文线索--我们能自然推测"它可能想玩""它喜欢被摸"。对于以陪伴、看护为目标的机器人而言,这种"可预测性"反而构成了用户体验的核心价值。空间级协同:富士通的SpatialWorldModel富士通展示的"SpatialWorldModel"技术提供了一种更高维度的解决方案。不同于单个机器人仅感知局部环境,该系统试图构建包含人、机器人、物体在内的整体空间模型,并进一步推断各方"意图",预测未来状态变化。在展台演示中,通过顶部摄像头与机器人本体视觉融合,系统实时追踪区域内动态。当有人靠近禁区,机器人会通过跺脚等明显动作发出警告;同时,地面投影直观显示其当前状态与决策逻辑。未来,若结合智能眼镜等个人设备,系统或可利用用户第一视角数据扩展感知范围,并通过AR轻量提示机器人下一步动作。这种"意图书写"式的沟通,或许能弥合人与非人实体之间的认知鸿沟。CES2026清晰地表明:具身AI已从概念走向落地。然而,技术演进的速度远超社会心理与交互设计的适应能力。当机器人真正走进街道、家庭与工作场所,人如何感知、信任并与其协作,将成为比算法精度更关键的问题。XR、空间建模与行为可解释性,或将成为构建"共处体验"的新基础设施。

  • Roblox推出基于Cube Foundation Model的4D生成能力,并开放4K纹理渲染

    2026-02-06

    Roblox近日正式发布了一项名为"4D生成"的新功能,该功能依托其自研AI模型"CubeFoundationModel",同时宣布4K纹理渲染能力向所有开发者开放。用自然语言生成可交互的3D对象所谓"4D生成",是指用户通过文本提示(prompt)即可创建具备特定行为能力的3D对象。例如,输入"一辆能驾驶的汽车",系统不仅会生成车辆外观,还会赋予其可操控的驾驶逻辑;输入"一架能飞行的飞机",生成的模型即具备起飞、巡航等基础飞行动作。这种能力让虚拟对象的行为更贴合用户的预期意图。支撑这一功能的是CubeFoundationModel及其底层的Schema系统。Schema会自动为生成对象分配功能性组件--比如车轮需支持旋转、机身需具备空气动力学结构等。这种结构化建模方式大幅降低了动态3D内容的创作门槛。据Roblox开发者Laksh透露,在实际项目中应用该功能后,玩家平均游玩时长提升了64%。目前,系统已内置车辆、飞行器等有限类别的Schema,未来计划扩展至任意物体类型。4K纹理渲染正式开放,兼顾画质与性能在图形表现方面,Roblox现已支持最高4096×4096像素的纹理渲染。开发者只需上传高分辨率图像资源并在体验中引用,系统便会根据运行环境智能调度。具体而言,当客户端设备具备足够算力,且引擎判断当前视角下的对象值得使用高分辨率纹理时,将自动以4K质量流式加载;若设备资源受限,则无缝降级至适配内存预算的低分辨率版本。官方强调,该机制可在不显著增加低端设备崩溃率或内存占用的前提下,释放高画质潜力。其他技术进展:环境生成与NPC智能化Roblox还披露了两项正在推进的技术方向。其一是"实时梦境",可根据文本或图像提示快速生成基础虚拟场景,当前生成速度约为每秒16帧,团队正致力于提升输出画质。另一方向是智能NPC的开发。通过学习平台积累的1,380亿小时玩家互动数据,这些NPC有望实现基于上下文的自主推理与响应,而不仅限于预设脚本行为。

  • 头显眼镜对比
    清除所有