• 资讯

  • VR飞行训练落地喜马拉雅:Loft Dynamics联合空客与EASA启动尼泊尔直升机安全计划

    2026-03-04

    VR飞行训练解决方案提供商LoftDynamics近日宣布,携手欧洲航空安全局与空中客车直升机公司,在尼泊尔启动一项聚焦直升机安全的专项培训计划。该倡议旨在应对当地复杂地形与多变天气带来的高风险飞行环境,系统性降低事故率并提升飞行员应急能力。此次为期一个月的安全培训项目设于加德满都,核心设备为LoftDynamics开发的H125VR飞行模拟器,配套课程由空客直升机公司依据国际民用航空组织标准定制。培训内容重点覆盖山地飞行操作与H125机型的周期性应急演练,由空客国际服务部及空客直升机公司的专业教员现场指导。应对高海拔挑战:VR成偏远地区飞行训练新解法尼泊尔航空业长期面临基础设施薄弱、气象条件恶劣等挑战,尤其在偏远山区,传统全动飞行模拟器因成本高、体积大而难以部署。LoftDynamics创始人兼CTOFabiRiesen指出:"在喜马拉雅这样的地区,传统模拟器通常不可行。通过将紧凑、沉浸式的VR训练系统直接带到当地,飞行员现在能针对真实飞行场景进行安全且高效的演练。"根据尼泊尔民航局最新规定,所有本国直升机飞行员必须完成至少4小时的模拟器训练。该项目正是为落实这一要求而设计,被视为提升偏远地区飞行员胜任力的关键举措。该计划隶属于"欧盟-南亚航空伙伴关系项目",这是EASA主导的区域性技术合作机制,旨在通过与南亚各国民航管理机构及行业伙伴的持续协作,推动航空安全标准统一、监管趋同与能力建设。值得注意的是,该项目不仅面向尼泊尔本国飞行员,也为印度、不丹、孟加拉国等周边南亚国家的飞行人员和运营方开放,有望成为区域航空安全合作的示范样板。

  • Rokid眼镜推重磅更新:首次原生集成Gemini,打造多模型AI入口

    2026-03-03

    智能眼镜厂商Rokid近日为其国际版RokidGlasses发布重大软件升级。此次更新将GoogleGemini、OpenAIChatGPT、DeepSeek及阿里通义千问(Qwen)四大主流大语言模型整合至统一平台,使其成为全球首家在设备端原生支持Gemini的AI眼镜品牌。依托"端云协同"架构,用户可在不同AI模型间自由切换,实现多模态交互与低延迟实时翻译,并针对不同地区的语言习惯提供高度本地化的体验。Rokid强调,这不仅是一次常规功能迭代,更是其全球化战略的关键落子。打破技术壁垒,构建开放型AI生态通过同时接入中美顶尖AI大模型,Rokid试图打破因地域和语言差异形成的技术隔阂。公司表示,此举旨在"为全球用户提供无缝衔接的本地化AI服务",并加速其在海外市场的渗透。从DeepSeek开源大模型,到自身对全球主流AI系统的兼容,中国科技企业正积极构建开放协作的技术生态。官方在公告中称:"中国科技力量正坚定走向开放与共赢,向世界提供'中国方案'。"与Meta等厂商将AI眼镜绑定于自研闭源模型(如Llama系列)的路径不同,Rokid选择将模型选择权交还用户。市场表现亮眼,众筹创XR品类纪录此次软件升级也伴随着强劲的销售势头。据尚普咨询(ShangpuGroup)统计,在2024年11月1日至2025年10月31日期间,RokidGlasses在全球带显示功能的AI眼镜品类中销量排名第一。在众筹领域,Rokid同样表现抢眼:其Kickstarter项目在45天内吸引超5,000名支持者,募资逾360万美元,创下该平台XR设备类目历史最高纪录。在日本知名众筹平台MAKUAKE上,RokidGlasses更成为最快突破1亿日元销售额的AI眼镜类产品。

  • Pico正式公布“天鹅计划”:4000 PPI微OLED + 自研视觉芯片,剑指高端XR市场

    2026-03-03

    继2025年11月首次透露研发进展后,字节跳动旗下pico于近日正式对外披露其下一代旗舰XR头显"ProjectSwan"(天鹅计划)的核心显示与计算规格,并同步发布全新操作系统PicoOS6。据官方信息,"天鹅计划"将搭载新一代4000像素/英寸(PPI)的微OLED显示屏,平均角分辨率(PPD)达40,峰值可达45--超越AppleVisionPro,足以清晰呈现虚拟屏幕上的文字内容。结合行业惯例推测,该参数极可能对应单眼4K分辨率,具体表现仍取决于最终视场角设计。在算力方面,新设备采用双芯片架构:主处理器性能较当前Pico4Ultra与MetaQuest3所用的高通SnapdragonXR2Gen2提升一倍;另配一颗自研协处理器,专用于计算机视觉与图像处理,宣称端到端延迟约为12毫秒,与AppleVisionPro的R1芯片持平。此外,设备确认支持手部追踪与眼动追踪,但Pico暂未透露主芯片供应商身份--尽管业界普遍猜测可能为尚未发布的SnapdragonXR2Gen3,但官方未予证实。值得注意的是,早前有媒体报道称Pico正开发一款通过外置计算单元("计算吊舱")实现超轻量化的头显。然而本次公布的渲染图显示双芯片集成于头显本体,暗示该传闻或指向另一款并行开发的产品。PicoOS6亮相:构建多应用共存的"空间操作系统"相比硬件,"天鹅计划"的真正战略重心在于其搭载的操作系统--PicoOS6。该系统由Pico耗时两年打造,核心是名为"PicoSpatialEngine"的空间计算引擎。与MetaHorizonOS和GoogleAndroidXR仅支持单个3D应用运行不同,PicoOS6引入类似ApplevisionOS的系统级合成器与统一渲染架构,允许2D与3D应用在同一空间环境中并行运行。用户可在虚拟环境或真实物理场景为背景的前提下,同时操作主应用与多个辅助工具。系统级功能全面支持环境光照匹配、动态遮挡、空间音频、基于真实表面的物理碰撞以及场景理解,确保跨应用体验的一致性与沉浸感。界面设计语言被命名为"云晶"(CloudCrystal),强调通透与轻盈的视觉风格。开发者可通过PicoSpatialUI系统构建适配真实光照变化的原生界面,并利用PicoSpatialSDK进行开发--官方同时提供对AndroidStudio与Kotlin的支持,并继续兼容Unity与Unreal引擎,通过专用插件接入PicoSpatialEngine的核心能力。此外,Pico宣布推出开源WebXR框架"WebSpatial",称其为"对HTML、CSS和JavaScript的轻量级扩展",旨在降低网页开发者构建空间应用的门槛。为保障生态兼容性,Pico强调新系统仍将完整支持OpenXR标准,现有Pico4Ultra上的所有应用均可无缝迁移至"天鹅计划"设备。全球早期体验计划启动,聚焦专业开发者反馈目前,Pico已开放"天鹅计划"及PicoOS6的封闭测试申请。官方表示将遴选"在XR平台具备深厚经验的少数开发者与专家",以获取硬件与软件的深度反馈。有意参与者可通过字节跳动指定表单提交申请。申请地址:https://wj.byteoversea.com/q/79002/us648gI6/137d/?ref=vr52.com

  • 从手游到Quest:〈Vortex 9〉如何用萌宠撬动VR射击市场?

    2026-02-28

    由保加利亚工作室AyteylzEOOD开发、iTalesVR发行的《Vortex9》,最初作为一款免费手游登陆iOS与GooglePlay商店。凭借卡通渲染画风、快节奏射击对战以及可助战的萌系宠物系统,迅速在移动端积累了一批忠实玩家。2025年,官方宣布该作将登陆MetaQuest平台,并支持跨平台联机--VR玩家可与手机用户同场竞技。这一举措不仅扩大了用户基础,也让游戏体验迎来质的提升。相较于移动端依赖触屏操作,《Vortex9VR》通过手柄实现了更直观、沉浸的交互方式。轻量化玩法+萌宠助战,打造碎片化VR射击体验《Vortex9VR》于2026年2月26日正式上线MetaQuest平台,延续"免费游玩"模式。操作逻辑简洁明了:左手摇杆控制移动,右手控制器指向敌人进行瞄准,右扳机开火;武器切换与装填通过按键完成。轻推右摇杆可跳跃,长按则进入蹲伏状态。游戏提供三种核心对战模式:团队死斗:随机组队,以击杀数决胜负;据点争夺:争夺地图关键区域控制权;混乱乱斗(Mayhem):纯个人混战,无队友协作。武器库涵盖冲锋枪、左轮手枪、近战刀具及投掷类手雷。角色生命值以屏幕右上角绿色血条显示,可通过拾取场景中的罐装饮料即时回血。宠物系统成差异化亮点,养成与战斗深度融合区别于同类轻量级射击游戏,《Vortex9》的核心特色在于"宠物"机制。玩家通过收集"宠物部件"孵化蛋类道具--这些蛋可通过任务奖励或内购获得。孵化可选择等待一小时免费完成,或支付少量金币加速。成功召唤后,宠物将自动跟随玩家并攻击敌人,拥有独立血条。血量耗尽后需短暂冷却方可重生。部分宠物具备特殊技能,例如"鲨鱼仔"(Sharky)能远程喷射水泡攻击对手。角色自定义方面,玩家初始可从两个基础形象中选择其一,后续通过游戏内货币解锁更多外观。金币与银币可通过充值或完成任务获取,任务分为主线目标与每日轮换挑战,内容涵盖胜利场次、特定武器使用次数等。美术与场景:低多边形下的高辨识度风格整体美术采用鲜明的卡通渲染风格,视觉上令人联想到《塞尔达传说:风之杖》。地图设计充满童趣与想象力,包括建筑工地、地下管道,甚至一个宛如《玩具总动员》场景的儿童卧室。尽管《Vortex9VR》并非技术或玩法上的革命性作品,但其精准定位"短时、轻松、有梗"的VR娱乐需求,在快节奏对战中融入养成与收集元素,成功构建出一套兼具亲和力与重复可玩性的体验闭环。

  • 千问入局AI硬件:阿里要打造“随身超级助理”,还是再造一个入口?

    2026-02-28

    2026年2月27日,阿里巴巴旗下个人AI助手"千问"正式宣布进军AI硬件领域。据多方爆料,其首款同名产品--千问AI眼镜,将于3月初在西班牙巴塞罗那举行的MWC2026上全球首发。年内,阿里还计划推出AI指环、AI耳机等多款终端设备。这标志着,继今年春节凭借"一句话下单"能力迅速成为国民级AI应用后,千问正从手机屏幕中"跳出来",试图以硬件为触点,构建一个全天候、全场景的AI交互生态。但问题也随之而来:同一公司,为何既有"夸克AI眼镜",又要推"千问AI眼镜"?这到底是产品矩阵扩张,还是内部品牌混乱后的战略纠偏?一、统一品牌:不是新品,而是"正名"去年,阿里曾以"夸克"之名推出AI眼镜S1/G1系列。尽管内置的是千问大模型,但对外却使用"夸克"品牌,造成用户认知割裂--软件叫"千问",硬件叫"夸克",体验虽一体,品牌却分裂。如今,阿里明确表示:未来所有AI硬件将以"千问(Qwen)"为统一品牌。已上市的夸克AI眼镜将同步千问的功能更新,并逐步接入更多千问AI能力。这显然不是简单的产品迭代,而是一次战略层面的品牌聚焦。阿里需要的不是一个"智能配件",而是一个能承载其AI野心的超级入口。通过统一命名,阿里正在将"千问"从一个APP升维为跨终端的AI操作系统级存在--无论你戴的是眼镜、指环,还是耳机,"千问"都是那个随时响应、无缝协同的AI大脑。二、阿里押注AI硬件的三大深层逻辑1.构建"软硬一体"的AI生态闭环过去几年,阿里在AI大模型(通义千问)、应用层(千问APP)、服务层(淘宝、高德、饿了么、飞猪)已布下重兵。但若仅停留在软件层面,始终缺乏对用户物理世界的直接触达。AI眼镜这类可穿戴设备,正是打破"屏幕边界"的关键载体。它让AI从"被动响应"走向"主动感知"--你看到什么、走到哪、说了什么,都可能成为服务触发点。这不是功能叠加,而是体验重构。2.数据反哺模型,形成飞轮效应全天候佩戴的AI硬件,意味着海量真实世界的行为数据:视觉、语音、位置、交互习惯……这些数据将直接喂养千问大模型,加速其在多模态理解、上下文推理、个性化服务等方面的能力进化。而更强的模型,又会提升硬件体验,进一步增强用户粘性--"硬件获数据→数据优模型→模型提体验→用户更依赖硬件",一个典型的正向循环就此形成。3.为阿里生态业务"装上AI引擎"统一入口的价值,远不止于技术整合。对阿里而言,更大的想象空间在于激活其庞大的本地生活与电商生态。试想:你在街上看到一件衣服,千问眼镜自动识别并推送淘宝同款;走进餐厅,它调出饿了么历史订单推荐菜品;打车时,高德导航直接投射到镜片上;付款时,支付宝"看一看"秒完成支付……这不是科幻,而是阿里正在搭建的"AI+生活服务"基础设施。千问硬件,将成为连接阿里各业务板块的神经中枢,把原本分散的服务能力,整合成一套流畅、无感、智能的用户体验。三、千问AI眼镜:会是下一个爆款吗?虽然官方尚未公布详细参数,但参考此前夸克AI眼镜S1的配置,我们可以合理推测千问AI眼镜的核心能力:双芯片架构:高通AR1+恒玄BES2800,兼顾算力与低功耗;双目Micro-OLED显示,支持眼动调节与近眼交互;深度集成阿里生态:高德导航、淘宝比价、飞猪提醒、支付宝支付等;SuperRaw夜景拍摄+双重防抖,强化影像能力;可换电设计,配合充电仓实现全天续航;基于千问3.5大模型,支持自然语言对话、实时翻译、任务代办等AI助理功能。作为全球化首发产品,千问AI眼镜大概率会在多语言支持、本地化服务适配上做针对性优化,以应对欧美、东南亚等市场的差异化需求。至于价格?参考夸克AI眼镜3999元的起售价(88VIP折后3329元),千问AI眼镜很可能维持在3000–4000元区间。虽然高于小米AI眼镜(1999元)或MetaRay-Ban(约2600元),但阿里赌的是生态溢价--你买的不是一副眼镜,而是一个接入阿里全生态的AI入口。写在最后:入口之争,才是AI时代的终局之战苹果用iPhone定义了移动互联网时代,谷歌靠Android铺开生态,Meta押注元宇宙却步履维艰。如今,在AI原生时代,谁掌握入口,谁就掌握用户的时间与注意力。阿里选择以"千问"为名,AllinAI硬件,本质上是在下一盘大棋:不再满足于做一个"好用的AI工具",而是要成为用户数字生活的"默认操作系统"。对于普通用户而言,这意味着未来的交互将更加自然--无需掏手机、不用点APP,只需一句话、一个眼神,服务即刻抵达。而对于行业来说,这或许预示着:AI竞争的主战场,正从模型参数转向终端生态。千问AI眼镜,只是开始。真正的较量,才刚刚拉开帷幕。

  • VITURE再获1亿美元融资,加速构建XR眼镜护城河

    2026-02-27

    继2025年9月完成1亿美元B轮融资后,XR眼镜厂商VITURE近日宣布又成功募集新一轮1亿美元资金。本轮融资由联想旗下北京投资机构君联资本领投,战略投资者包括此前已参投的贝塔斯曼集团。据Crunchbase数据,VITURE累计融资额已达2.215亿美元。自去年9月B轮融资以来,VITURE已推出Luma系列与BeastXR眼镜--这两款产品均为需连接手机或PC使用的分体式XR设备,采用"鸟浴式"(birdbath)光学方案。2025年12月,公司还与CDProjektRED合作推出《赛博朋克2077》联名限量版Luma系列眼镜,并加速拓展北美零售渠道,目前已在百思买门店设立线下体验专区。专利攻防战:VITURE与XREAL互诉侵权值得注意的是,此次融资公布之际,正值VITURE与其竞争对手XREAL(获谷歌支持)陷入激烈法律纠纷。今年1月,XREAL在美国对VITURE提起专利诉讼,指控其ViturePro、LumaPro及LumaUltra等型号涉嫌侵犯XREAL的核心专利,并称相关产品已在美国市场销售或进口。对此,VITURE在官方声明中直指XREAL的行为属于"专利流氓式"策略,并已在中国对XREAL发起反诉,同时另案追究后者"针对VITURE及其产品所发布的虚假且具损害性的言论"。公司强调:"VITURE本无意卷入诉讼,但将毫不犹豫地捍卫自身权益,并采取一切合法手段维权。"若法院最终裁定VITURE胜诉,该公司表示或将申请禁令,禁止XREAL使用电致变色薄膜技术的产品在全球范围内的制造与出口,并寻求其他法定救济措施。

  • Meta明确分拆VR与移动平台战略,聚焦Quest生态深耕

    2026-02-27

    2026年2月19日,Meta通过官方博客正式公布了其在VR业务领域2026年的核心战略方向。此次声明由RealityLabs内容业务副总裁萨曼莎·莱恩(SamanthaRyan)执笔,透露出Meta对VR生态长期投入的坚定立场。数据显示,Meta目前在VR头显市场占据绝对领先地位,销量远超所有竞争对手总和。即便在2025年假日季未推出新硬件的情况下,其销售额仍与2024年持平。平台整体用户支出保持稳定,应用内购收入同比增长13%。此外,订阅服务"MetaHorizon+"用户数于2025年突破100万,游戏库内容已超过100款。双平台分治:Quest专注VR,Worlds转向移动端基于上述成果,Meta宣布将在2026年明确区分"QuestVR平台"与"Worlds移动平台"的发展路径,采取双线并行、独立运营的策略。过去两者被视为统一生态进行管理,如今的分拆意在让各业务单元更聚焦自身增长引擎。为强化VR内容生态,Meta计划将移动应用从Quest商店中移除,以提升VR专属应用的曝光度与分发效率。公司表示,此举有助于开发者更精准触达目标用户,并优化整体用户体验。在商业化支持方面,Meta已上线季节通行证、内容捆绑包等新型变现工具,并承诺在2026年继续扩充面向开发者的收益与效率提升方案。仅在2025年,Meta就向开发者生态投入约1.5亿美元。移动端发力:HorizonWorlds成新重心与此同时,Meta将"HorizonWorlds"定位为移动端元宇宙的核心载体,并将其列为2026年移动业务的首要任务。依托2025年推出的创作者基金,平台上的移动端"世界"数量已超过2,000个,其中4位创作者年收入突破100万美元。Meta还推出了专为创作者打造的"MetaHorizonStudio"与"MetaHorizonEngine",旨在提升内容生产效率与视觉表现力,进一步降低高质量互动内容的开发门槛。尽管当前VR渗透率仍处早期阶段,Meta仍引用"这场旅程只完成了1%"的说法,重申其将VR视为下一代计算平台基石的战略判断,并强调将持续进行长期投入。

  • Google推Gemini驱动XR创作工具:一句话生成可交互3D体验

    2026-02-25

    GoogleAndroidXR团队近日宣布推出一套面向开发者与普通用户的全新工具,旨在通过Gemini多模态AI模型,将自然语言创意直接转化为可交互的扩展现实(XR)内容。这一能力已在Gemini网页应用中的Canvas功能中实现原型验证,并标志着Google正加速推动"沉浸式计算"的平民化。从生物模拟到彩虹画笔:AI生成XR内容落地为验证技术可行性,Google团队首先构建了一个沉浸式生物学模拟:通过Gemini建模血细胞间的动态交互,并利用WebGL与Three.js进行可视化渲染,再借助WebXRAPI将其无缝转换为XR体验。用户可在亚细胞尺度中穿行观察,亲身体验AI所构建的"完整、可交互XR场景"。基于此探索,Google开发出一套高效原型工具,使用户能以远超传统流程的速度创建3D交互模型。要使用该功能,目前需配备三星GalaxyXR头显,并接入Gemini3Pro多模态AI模型。XRBlocks:可复用的AI专家,赋予AR物理直觉核心创新在于名为"XRBlocks"的Gem(Gem是Gemini的定制化版本,相当于针对特定任务的可复用AI专家)。用户既可直接调用预置的XRBlocksGem,也可通过下载"XRBlocksultra-prompt"自行构建专属版本。据Google介绍,该提示词赋予Gemini对现实世界空间与物理规则的高级感知能力,使其生成的AR对象具备更真实的重力、碰撞与响应逻辑。操作流程极为简洁:在GalaxyXR头显的Chrome浏览器中打开Gemini,新建对话并选择对应XRGem,进入Canvas界面后即可开始语音或文字输入。更进一步,用户还可让Gemini在XR环境中嵌入GeminiLive--实现边体验、边语音对话、边实时修改,全程无需退出沉浸状态。左图:一位资深XR工程师一天内创建出的体验。右图:根据谷歌的说法,Canvas在Gemini网络应用程序中不到一分钟就创建出的体验。示例即生产力:三句话看懂未来创作方式Google提供了多个直观示例,展示自然语言如何驱动XR内容生成:"制作一支能在3D空间中画出彩虹的笔""生成一群我一碰就破的泡泡""折一只纸鸟能在房间飞几秒,然后落在我手上;当我移动手,它又飞走并重复这一过程"所有生成内容最终以可分享的网页链接形式输出,便于传播与协作。此举不仅降低了XR内容创作的技术门槛,更预示着一种"所想即所得"的下一代人机交互范式正在成型--未来,构建虚拟世界或许不再需要代码,只需清晰的想象力。谷歌表示,用户创作完成后,作品会变成可以分享的网络链接。要了解更多关于Gemini的信息并浏览XRBlocks演示示例地址:https://xrblocks.github.io/docs/samples

  • HTC推VIVERSE创作者计划:按真实互动付费,告别广告依赖

    2026-02-25

    HTC旗下Web3内容分发平台VIVERSE今日正式推出VIVERSE创作者合作计划,一项以"真实用户互动"为核心的绩效奖励机制。该计划旨在为游戏开发者、视频创作者、Web应用构建者及数字艺术家提供一条透明、低门槛、去广告化的变现路径--不再依赖传统广告曝光量,而是根据观众的实际观看时长与互动深度直接向创作者付费。按"真实观看"结算:30秒即算有效互动根据HTC官方说明,VIVERSE将"一次有效观看"定义为用户与内容互动至少30秒。创作者的收益基于独立观看人数与总互动时长计算,一旦累计收益达到50美元门槛,即可立即获得基于观看数据的实时分成。这一模式直击当前创作者经济的核心痛点。HTCVIVERSE增长负责人AndranikAslanyan指出:"在现有在线生态中,创作者收入往往取决于广告是否被展示--而广告库存、屏蔽插件、地域限制和需求波动,常导致承诺的CPM远低于实际到账金额。VIVERSE则通过为'真实互动'付费,彻底消除这种不确定性。"创作者权益明确:内容归属不变,AI训练零使用尤为值得注意的是,VIVERSE明确承诺:不会将创作者上传的内容用于任何AI或机器学习模型的训练,且所有知识产权100%归属于原创者。这一立场在当前AI滥用内容争议频发的背景下,成为吸引高质量创作者的关键优势。此外,该计划具备多项友好设计:非独家协议:创作者可同时在其他平台发布相同内容;一键分发:支持通过URL分享或嵌入第三方网站(iframe形式),无需用户安装;全格式兼容:无论使用Unity、Unreal还是自研引擎,各类沉浸式内容均可接入;零粉丝门槛:无关注数或专属工具要求,审核通过后即可发布;数据透明:提供独立访客数、互动时长等核心指标,未来还将上线更深度分析功能。开发者实测:专注创作,基建交给平台已入驻VIVERSE的沉浸式体验《Frustrain》执行制作人GregoryMolodtsov表示:"在VIVERSE上发布让我们获得基于观看量的稳定激励,同时能跨平台快速验证创意,无需陷入技术适配泥潭。平台负责基础设施,而观众洞察帮助我们规划后续内容扩展。"目前,VIVERSEPartnerProgram已开放免费注册,创作者可访问www.viverse.com/partner即刻加入,开启基于真实互动的沉浸式内容变现之旅。

  • Epic Games收购Meshcapade,强化数字人技术布局

    2026-02-25

    2026年2月18日,EpicGames宣布正式收购德国图宾根的AI初创公司Meshcapade。此次收购不仅将Meshcapade团队并入Epic的AI研究部门,还同步宣布将在图宾根著名的AI研究集群"CyberValley"设立新办公室,进一步深化其在欧洲的人工智能与3D内容生成领域的投入。基于SMPL:打造学术与工业界通用的数字人体标准Meshcapade成立于2018年,源自马克斯·普朗克智能系统研究所(MaxPlanckInstituteforIntelligentSystems),核心围绕该所开发的SMPL人体模型展开技术演进。SMPL是一个基于数千份3D人体扫描数据训练而成的参数化3D人体模型,因其高精度、轻量化和可驱动性,已成为学术界与工业界在3D人体表示领域的事实标准。Meshcapade在此基础上,开发出无需专业动捕设备、仅凭普通视频即可重建3D人体姿态与动作的技术。其系统不仅能还原肢体运动,还能捕捉表情、手势等非语言行为,赋予数字人更自然、更具表现力的动作细节。联合创始人NauraMahood曾表示:"我们的使命是让数字人的创建变得更简单、更富表现力,也更贴近创作者。"与MetaHuman融合,构建下一代实时数字人生态EpicGames自推出MetaHuman框架以来,已为影视、游戏及实时3D项目提供高度逼真的数字人创建工具--通过MetaHumanCreator,用户可在数分钟内生成具备真实面部与身体细节的虚拟角色。此次收购后,Meshcapade的SMPL驱动技术有望深度集成至MetaHuman与UnrealEngine中,显著提升数字人在动作生成、视频驱动动画及AI驱动交互方面的能力。此举标志着Epic正从"静态高保真建模"向"动态智能驱动"迈进,为未来元宇宙、虚拟制片、AINPC及沉浸式社交场景提供更完整、更易用的数字人解决方案。

  • Google发布Glimmer设计语言:为Gemini智能眼镜定义“透明界面”范本

    2026-02-24

    随着Gemini智能眼镜发布的临近,Google正式推出其专属界面设计语言--Glimmer。这一系统不仅适用于即将上市的透明抬头显示眼镜,也为未来真正的AR设备奠定交互基础。Glimmer并非单纯视觉风格,而是一套针对小屏、透明、低功耗、高干扰环境等硬性约束所构建的完整设计哲学。小屏≠小体验:在真实世界中"短暂聚焦"与传统矩形屏幕或VR的全景画布不同,智能眼镜的显示区域极其有限,且始终与现实环境共存。Google强调,这类设备不是供用户长时间凝视的"屏幕",而是需要主动聚焦、快速获取信息后立即回归现实的瞬时交互媒介。因此,Glimmer倡导"一瞥即懂"的布局:简化菜单层级,减少视觉负担,确保用户能在几秒内完成信息摄取。正如Google在去年I/O大会演示的原型机所示,界面应如现实世界的注释,而非覆盖层。GoogleGlimmer建议在深色背景上显示浅色内容。透明显示下的色彩与可读性挑战由于显示内容叠加在动态背景上,颜色表现面临独特难题。Google明确建议:避免高饱和度,优先保持亮度强度。深色在透明屏幕上极易"消失",而浅色或高亮元素更易被识别。在文字呈现上,Glimmer对可读性提出严苛要求:字号需以"手臂长度清晰可见"为基准;屏幕边缘光学畸变严重,分辨率受限,传统移动端的宽高比假设不再适用;禁用密集列表与小字号文本,内容应精简、关键词突出;推荐使用更高对比度、更粗字重及宽松字间距,官方指定SansFlex字体为优选方案。在透明屏幕上,粗体字更容易阅读。功耗即设计:每一像素都要"省着用"受限于轻量化需求,智能眼镜的电池与散热空间极为紧张。Glimmer将功耗纳入核心设计原则:优先使用线框图标而非实心填充,以减少光晕并降低能耗;控制点亮像素数量,采用瞬时消息替代常驻通知;限制动画复杂度,优化运动逻辑,减轻热负荷。透明显示屏更适合使用亮度更高、色彩饱和度更低的图形。Glimmer的本质,是在物理极限中寻找体验最优解--它是为了让数字信息在真实世界中恰到好处地存在。对于开发者而言,遵循Glimmer意味着从"做功能"转向"做克制",在极简中实现高效。更多细节可参考Google官方发布的《JetpackComposeGlimmer指南》。

  • Vuzix推企业级智能眼镜“交钥匙”方案:从远程协助切入工业AR落地

    2026-02-24

    智能眼镜与AR技术提供商Vuzix近日宣布推出全新产品线--VuzixSolutions,一套面向企业用户的集成化智能眼镜部署套件。该方案旨在简化一线员工的AR设备部署流程,加速实现"免手持"作业效率,并以明确的高价值场景为切入点,降低企业数字化转型门槛。首发套件聚焦远程协助,深度适配Teams与ZoomVuzixSolutions的首个产品名为"RemoteAssistbyVuzixSolutions",专为VuzixLX1或M400智能眼镜打造,原生支持MicrosoftTeams和Zoom视频协作平台。与传统为手机或电脑设计的视频会议软件不同,Vuzix针对其眼镜硬件开发了优化版应用,提供免手持控制、语音指令触发、一键接通等简化交互功能,确保工人在双手操作设备或工具时仍能顺畅发起远程协助请求。Vuzix企业解决方案总裁ChrisParkinson博士指出:"虽然Vuzix智能眼镜具备高度通用性,但大多数企业客户通常从一个高影响力的具体用例开始部署。VuzixSolutions正是为了消除初期落地的复杂性,提供一条快速、可预期的价值实现路径。"为何是远程协助?工业场景的天然契合点远程协助被广泛视为可穿戴技术在企业端最成熟的应用场景之一,尤其适用于现场服务、物流分拣、制造装配、工业维修等"双手忙碌"的环境。通过第一视角视频流,后方专家可实时查看现场画面、标注指导、共享文档,大幅缩短故障处理时间并减少差旅成本。Vuzix强调,其部署套件无需复杂配置或长时间培训,既可作为即开即用的独立解决方案,也可作为企业后续扩展更多AR工作流(如数字工单、AI质检、远程巡检等)的起点。目前,"RemoteAssistbyVuzixSolutions"已通过Vuzix官网及授权渠道正式发售。公司同时透露,未来数月将陆续推出针对其他核心业务流程的专用套件,进一步丰富其企业AR解决方案矩阵。

  • Waymo推出生成式3D世界模型,用于训练自动驾驶汽车

    2026-02-23

    自动驾驶技术公司Waymo近日宣布推出WaymoWorldModel--一款基于生成式人工智能的大型3D仿真系统,专为训练和验证其核心自动驾驶系统"WaymoDriver"而设计。该模型不仅可复现日常交通场景,还能生成现实中极为罕见甚至从未发生过的极端情境,从暴雨洪水到野生动物闯入道路,全面提升自动驾驶系统的泛化与安全能力。基于GoogleDeepMindGenie3,实现多模态高保真仿真Waymo表示,该世界模型建立在GoogleDeepMind开发的通用世界模型Genie3基础之上。Genie3通过在海量、多样化的视频数据上进行预训练,已具备对物理世界运行规律的深层理解。Waymo在此基础上针对驾驶场景进行领域适配,输出高度逼真的多传感器数据,包括摄像头图像与激光雷达(LiDAR)点云,甚至能生成包含时间维度的4D点云,提供精确的深度与运动信息。与行业主流做法不同--即仅依赖车队实际采集的道路数据从头训练仿真模型--WaymoWorldModel借助Genie3的"世界知识",突破了真实数据的局限。这意味着系统不仅能学习已发生的驾驶经验,还能"想象"并模拟从未被记录的长尾场景:比如一头大象突然出现在城市街道,或山体滑坡阻断高速公路。三大控制机制,实现灵活、可控的虚拟测试为确保仿真的实用性与可操作性,WaymoWorldModel提供了三种核心控制方式:驾驶动作控制:仿真环境能实时响应特定的车辆控制指令,实现闭环测试;场景布局控制:用户可自定义道路结构、信号灯状态及其他交通参与者的行为逻辑;语言控制:最灵活的交互方式,仅需自然语言指令即可调整昼夜、天气,甚至生成完全合成的虚构场景(如"午夜暴雨中的施工区")。更值得注意的是,该模型还能将普通手机或行车记录仪拍摄的任意视频,自动转化为多模态仿真环境。这使得Waymo能在真实地点的数字孪生中测试其Driver系统,既保留了现实世界的细节真实性,又赋予其可控的测试条件。构建更严苛的安全基准,提前应对未知挑战Waymo强调,通过将自动驾驶系统置于这些高度复杂、动态且多样化的虚拟世界中,公司得以建立比现实路测更严格、更全面的安全验证基准。在真正遭遇极端事件前,系统已在数字空间中"经历"过成千上万次类似挑战,从而显著提升其在现实世界中的鲁棒性与可靠性。这一技术标志着自动驾驶研发正从"数据驱动"迈向"知识+生成驱动"的新阶段--不再被动等待罕见事件发生,而是主动创造、学习并征服它们。

  • AR产业加速整合:AR联盟新增18家成员,覆盖光学、显示与空间计算全链条

    2026-02-23

    近日,国际光学工程学会(SPIE)旗下专注于增强现实(AR)硬件研发的ARAlliance宣布新增18家成员企业。此次扩容汇聚了来自全球的顶尖技术力量,涵盖基础研究、先进光学、显示技术、直觉化交互界面及空间计算平台等关键领域,标志着AR产业链协同创新进入新阶段。构建统一生态,推动AR供应链协同发展"我们正在共同构建AR。"ARAlliance主席、意法半导体(STMicroelectronics)战略营销总监BharathRajagopalan博士表示,"ARAlliance是开展实质性工作的平台--在这里,各方协力统一技术路径,推动全球AR供应链的整合、标准化与规模化,并加速创新落地。"新加入的成员横跨材料、器件、模组到系统级解决方案,展现出AR硬件生态的高度专业化与垂直深度:光学与波导技术:AlphaLum、OORYMOptics、Solnil、CREAL(光场成像)、Augmenteum(液晶主动光学)等公司聚焦下一代近眼显示核心;微型显示与半导体:RAONTECH、NichiaAmerica、KyoceraSLDLaser提供Micro-OLED、GaN激光光源等关键发光元件;投影与光机引擎:Appotronics、TriLiteTechnologies、OQmented(MEMS激光扫描)、Gixel带来多样化轻量化显示方案;感知与交互:EyeJets专注视网膜显示与眼动追踪,TDK通过其AIsight平台提供情境感知与端侧智能;制造与测试:Goertek(AR/VR整机与组件制造商)、GIS(触控与光学模组)、TechnoTeam(光度计量图像处理)支撑量产落地;学术前沿:罗切斯特大学扩展现实中心(CXR)则为沉浸式平台与光学设计注入科研动能。Rajagopalan补充道:"我们很高兴迎来这批技术深厚、产品领先的伙伴加入ARAlliance。他们的加入将极大增强我们在推动AR市场成熟方面的集体能力。"随着苹果VisionPro、MetaRay-Ban智能眼镜等消费级产品逐步铺开,底层硬件生态的协同效率正成为行业突破的关键。ARAlliance此次大规模扩容,不仅强化了从材料到整机的全栈技术联动,也为未来统一标准、降低开发门槛、加速产品迭代奠定了坚实基础。

  • 地下管线也能AR核验?Esri与Pix4D推出现地三维测绘新方案

    2026-02-22

    地理信息系统技术提供商Esri本周宣布,与瑞士摄影测量软件公司Pix4D合作推出一项全新的地面测绘工作流。该方案专为基础设施管理机构设计,旨在将地下隐蔽资产转化为可操作、高精度的数字数据。从现场扫描到AR验证:打通地下资产数字化闭环此次合作的核心在于将Pix4D旗下移动应用PIX4Dcatch采集的资产数据,直接无缝集成至Esri的ArcGIS地理空间平台。外业团队可在现场使用PIX4Dcatch配合实时动态定位设备,对管沟、管线等基础设施进行高精度扫描。所生成的数据不仅具备厘米级地理参考精度,还可一键发布至ArcGISOnline,并自动转换为3D模型与点云,以"场景图层"形式呈现。更关键的是,这些模型支持在增强现实环境中叠加显示,实现"设计图纸"与"实际施工"状态的直观比对。这一能力使工程团队能在回填前即时验证施工准确性,大幅降低返工风险,并在整个项目生命周期中保留高保真度的数字档案。

  • Apple智能眼镜细节曝光:双摄系统、自研芯片,2027年初登场

    2026-02-19

    据彭博社知名科技记者MarkGurman最新报道,Apple计划于2027年初推出其首款智能眼镜。这款设备将配备两颗摄像头--一颗用于高质量图像与视频拍摄,另一颗专用于计算机视觉任务。Gurman长期以准确预测Apple产品动向著称,过去一年多持续追踪该项目进展。硬件配置聚焦"质感"与"视觉智能"此前的爆料已指出,Apple首款智能眼镜将不配备显示屏,而是集成摄像头、麦克风和扬声器,并搭载基于AppleWatchS系列芯片优化而来的全新自研低功耗芯片。核心功能包括通话、音乐播放、实时翻译、导航指引,以及Apple称为"视觉智能"(VisualIntelligence)的多模态AI能力。此次新披露的关键差异点在于Apple如何与Meta的Ray-Ban智能眼镜区隔:做工品质与摄像头技术。据Gurman透露,该设备将采用"高端材料",包括丙烯酸组件,并通过双摄系统实现功能分工。专用的计算机视觉传感器可显著降低功耗,使其能够持续运行,支撑更高级的空间感知场景。例如,导航指令可从"200米后左转"升级为"在那辆红色本田车后面左转"。此外,该传感器还可能支持无需腕带的手势识别--只需抬起手臂即可触发交互。自主设计,瞄准全天候佩戴体验与Meta和Google选择与成熟眼镜品牌合作不同,Apple将自主设计镜框,提供多种颜色与尺寸选项。Gurman称,Apple目标在2026年12月启动大规模量产,为2027年初的正式发布铺路。然而,竞争格局正在迅速演变。据《TheInformation》去年报道,Meta与EssilorLuxottica正开发下一代Ray-BanMeta眼镜,将加入面部识别功能,并支持长达数小时的连续AI会话。与此同时,Google也计划在今年推出由Gemini大模型驱动的智能眼镜平台,携手GentleMonster、WarbyParker及三星共同推向市场。一场围绕"全天佩戴智能眼镜操作系统"的三方角力已然成型。Meta、Apple与Google各自押注硬件+AI生态,试图定义下一代可穿戴计算入口。但市场是否足以容纳三位玩家?抑或终将演变为双雄争霸?答案或许将在未来两年揭晓。

  • 共 2479 条1/15512345>

    VR52

    VR52网成立于2015年,平台提供VR头显、AR眼镜、配件外设、厂商、测评、行业资讯、游戏与应用、展会活动等。

    热门VR眼镜
    标签
    头显眼镜对比
    清除所有