智能戒指厂商Oura近日宣布收购赫尔辛基手势识别技术公司Doublepoint,这是其继SpartaScience、Veri和Proxy之后的第四次战略并购。此次收购标志着Oura正从健康监测硬件向"环境智能"体验加速演进。Doublepoint成立于2020年,专注于基于AI的生物识别软件,能通过细微手部动作实现对设备的无接触控制。Oura认为,未来可穿戴AI的交互方式将由语音与手势共同驱动。此次整合旨在强化其长期创新路线图,推动更直观的人机交互,并加速开发以隐私优先的"静默式"AI功能。从健康数据到环境交互:打造"安静而有用"的智能体验Oura强调,Doublepoint的技术可精准识别微小手势,使跨设备操作更自然流畅。当这一能力与其自身持续生理传感和健康洞察相结合,将催生一类全新的"背景式"功能--无需主动唤醒、不打扰用户,却能在适当时机提供恰到好处的帮助。例如,系统或可根据用户手势自动暂停通知、调节环境灯光,或在检测到压力升高时启动呼吸引导。这类安静而有用的功能正是Oura所构想的下一代人本计算体验。芬兰团队成AI战略核心,强化本地研发布局本次收购涵盖Doublepoint全部四名创始人及AI架构师团队,他们将继续以赫尔辛基为主要基地,与Oura全球团队协作,主导未来AI驱动产品体验的设计与落地。OuraCEOTomHale表示:"Doublepoint团队的加入不仅增强了我们在芬兰的研发实力,也将加速我们交付跨设备、跨场景的直觉化体验。"Doublepoint联合创始人兼CEOOhtoPentikäinen指出,双方共享"打造自适应、响应式个人计算"的愿景,此次合并将让其技术触达更广泛的用户群体。截至目前,Oura估值已达约110亿美元,累计售出超550万枚智能戒指。本次交易的具体金额未予披露。
在本周于巴塞罗那举行的全球移动通信大会上,韩国XR企业NPInc.展示了一款名为MUA'H(MUAHome)的创新产品--一个集成VR头显与生理监测系统的单人"数字解压舱",旨在为高强度办公环境中的员工提供即时心理恢复方案。该设备并非简单的Quest3头显加隔音箱体。据NP介绍,MUA'H内置非接触式传感器,可实时监测包括心率变异性、心率、血压和体温在内的六项关键生理指标。这些数据将实时输入公司自研的"MIND-CAI"系统,动态生成个性化的XR冥想体验,实现从"感知压力"到"干预缓解"的闭环。企业级心理健康管理,兼顾隐私与效率除面向员工的放松功能外,MUA'H平台还为企业管理者提供群体层面的压力趋势分析。系统通过匿名化聚合数据,帮助HR或管理层识别团队整体的倦怠风险,从而提前介入、优化工作安排。NP强调,所有个体健康信息均经过脱敏处理,确保管理者无法追踪具体员工的身心状态,避免"健康监控"演变为职场监视。在MWC现场展出的原型机采用温馨设计:铺设地毯、配备软垫座椅,并配有可滑动的隐私门,营造出安全、沉浸的短暂休憩空间。NP此前已开发面向MetaQuest平台的MUA应用,此次MUA'H被视为其从消费级XR向企业健康科技场景延伸的关键一步。随着全球职场对心理健康关注度持续上升,这类融合生物传感、AI与沉浸式技术的"数字疗愈"方案,正成为XR技术落地B端市场的新突破口。
继2025年9月完成1亿美元B轮融资后,XR眼镜厂商VITURE近日宣布又成功募集新一轮1亿美元资金。本轮融资由联想旗下北京投资机构君联资本领投,战略投资者包括此前已参投的贝塔斯曼集团。据Crunchbase数据,VITURE累计融资额已达2.215亿美元。自去年9月B轮融资以来,VITURE已推出Luma系列与BeastXR眼镜--这两款产品均为需连接手机或PC使用的分体式XR设备,采用"鸟浴式"(birdbath)光学方案。2025年12月,公司还与CDProjektRED合作推出《赛博朋克2077》联名限量版Luma系列眼镜,并加速拓展北美零售渠道,目前已在百思买门店设立线下体验专区。专利攻防战:VITURE与XREAL互诉侵权值得注意的是,此次融资公布之际,正值VITURE与其竞争对手XREAL(获谷歌支持)陷入激烈法律纠纷。今年1月,XREAL在美国对VITURE提起专利诉讼,指控其ViturePro、LumaPro及LumaUltra等型号涉嫌侵犯XREAL的核心专利,并称相关产品已在美国市场销售或进口。对此,VITURE在官方声明中直指XREAL的行为属于"专利流氓式"策略,并已在中国对XREAL发起反诉,同时另案追究后者"针对VITURE及其产品所发布的虚假且具损害性的言论"。公司强调:"VITURE本无意卷入诉讼,但将毫不犹豫地捍卫自身权益,并采取一切合法手段维权。"若法院最终裁定VITURE胜诉,该公司表示或将申请禁令,禁止XREAL使用电致变色薄膜技术的产品在全球范围内的制造与出口,并寻求其他法定救济措施。
2026年2月19日,Meta通过官方博客正式公布了其在VR业务领域2026年的核心战略方向。此次声明由RealityLabs内容业务副总裁萨曼莎·莱恩(SamanthaRyan)执笔,透露出Meta对VR生态长期投入的坚定立场。数据显示,Meta目前在VR头显市场占据绝对领先地位,销量远超所有竞争对手总和。即便在2025年假日季未推出新硬件的情况下,其销售额仍与2024年持平。平台整体用户支出保持稳定,应用内购收入同比增长13%。此外,订阅服务"MetaHorizon+"用户数于2025年突破100万,游戏库内容已超过100款。双平台分治:Quest专注VR,Worlds转向移动端基于上述成果,Meta宣布将在2026年明确区分"QuestVR平台"与"Worlds移动平台"的发展路径,采取双线并行、独立运营的策略。过去两者被视为统一生态进行管理,如今的分拆意在让各业务单元更聚焦自身增长引擎。为强化VR内容生态,Meta计划将移动应用从Quest商店中移除,以提升VR专属应用的曝光度与分发效率。公司表示,此举有助于开发者更精准触达目标用户,并优化整体用户体验。在商业化支持方面,Meta已上线季节通行证、内容捆绑包等新型变现工具,并承诺在2026年继续扩充面向开发者的收益与效率提升方案。仅在2025年,Meta就向开发者生态投入约1.5亿美元。移动端发力:HorizonWorlds成新重心与此同时,Meta将"HorizonWorlds"定位为移动端元宇宙的核心载体,并将其列为2026年移动业务的首要任务。依托2025年推出的创作者基金,平台上的移动端"世界"数量已超过2,000个,其中4位创作者年收入突破100万美元。Meta还推出了专为创作者打造的"MetaHorizonStudio"与"MetaHorizonEngine",旨在提升内容生产效率与视觉表现力,进一步降低高质量互动内容的开发门槛。尽管当前VR渗透率仍处早期阶段,Meta仍引用"这场旅程只完成了1%"的说法,重申其将VR视为下一代计算平台基石的战略判断,并强调将持续进行长期投入。
GoogleAndroidXR团队近日宣布推出一套面向开发者与普通用户的全新工具,旨在通过Gemini多模态AI模型,将自然语言创意直接转化为可交互的扩展现实(XR)内容。这一能力已在Gemini网页应用中的Canvas功能中实现原型验证,并标志着Google正加速推动"沉浸式计算"的平民化。从生物模拟到彩虹画笔:AI生成XR内容落地为验证技术可行性,Google团队首先构建了一个沉浸式生物学模拟:通过Gemini建模血细胞间的动态交互,并利用WebGL与Three.js进行可视化渲染,再借助WebXRAPI将其无缝转换为XR体验。用户可在亚细胞尺度中穿行观察,亲身体验AI所构建的"完整、可交互XR场景"。基于此探索,Google开发出一套高效原型工具,使用户能以远超传统流程的速度创建3D交互模型。要使用该功能,目前需配备三星GalaxyXR头显,并接入Gemini3Pro多模态AI模型。XRBlocks:可复用的AI专家,赋予AR物理直觉核心创新在于名为"XRBlocks"的Gem(Gem是Gemini的定制化版本,相当于针对特定任务的可复用AI专家)。用户既可直接调用预置的XRBlocksGem,也可通过下载"XRBlocksultra-prompt"自行构建专属版本。据Google介绍,该提示词赋予Gemini对现实世界空间与物理规则的高级感知能力,使其生成的AR对象具备更真实的重力、碰撞与响应逻辑。操作流程极为简洁:在GalaxyXR头显的Chrome浏览器中打开Gemini,新建对话并选择对应XRGem,进入Canvas界面后即可开始语音或文字输入。更进一步,用户还可让Gemini在XR环境中嵌入GeminiLive--实现边体验、边语音对话、边实时修改,全程无需退出沉浸状态。左图:一位资深XR工程师一天内创建出的体验。右图:根据谷歌的说法,Canvas在Gemini网络应用程序中不到一分钟就创建出的体验。示例即生产力:三句话看懂未来创作方式Google提供了多个直观示例,展示自然语言如何驱动XR内容生成:"制作一支能在3D空间中画出彩虹的笔""生成一群我一碰就破的泡泡""折一只纸鸟能在房间飞几秒,然后落在我手上;当我移动手,它又飞走并重复这一过程"所有生成内容最终以可分享的网页链接形式输出,便于传播与协作。此举不仅降低了XR内容创作的技术门槛,更预示着一种"所想即所得"的下一代人机交互范式正在成型--未来,构建虚拟世界或许不再需要代码,只需清晰的想象力。谷歌表示,用户创作完成后,作品会变成可以分享的网络链接。要了解更多关于Gemini的信息并浏览XRBlocks演示示例地址:https://xrblocks.github.io/docs/samples
HTC旗下Web3内容分发平台VIVERSE今日正式推出VIVERSE创作者合作计划,一项以"真实用户互动"为核心的绩效奖励机制。该计划旨在为游戏开发者、视频创作者、Web应用构建者及数字艺术家提供一条透明、低门槛、去广告化的变现路径--不再依赖传统广告曝光量,而是根据观众的实际观看时长与互动深度直接向创作者付费。按"真实观看"结算:30秒即算有效互动根据HTC官方说明,VIVERSE将"一次有效观看"定义为用户与内容互动至少30秒。创作者的收益基于独立观看人数与总互动时长计算,一旦累计收益达到50美元门槛,即可立即获得基于观看数据的实时分成。这一模式直击当前创作者经济的核心痛点。HTCVIVERSE增长负责人AndranikAslanyan指出:"在现有在线生态中,创作者收入往往取决于广告是否被展示--而广告库存、屏蔽插件、地域限制和需求波动,常导致承诺的CPM远低于实际到账金额。VIVERSE则通过为'真实互动'付费,彻底消除这种不确定性。"创作者权益明确:内容归属不变,AI训练零使用尤为值得注意的是,VIVERSE明确承诺:不会将创作者上传的内容用于任何AI或机器学习模型的训练,且所有知识产权100%归属于原创者。这一立场在当前AI滥用内容争议频发的背景下,成为吸引高质量创作者的关键优势。此外,该计划具备多项友好设计:非独家协议:创作者可同时在其他平台发布相同内容;一键分发:支持通过URL分享或嵌入第三方网站(iframe形式),无需用户安装;全格式兼容:无论使用Unity、Unreal还是自研引擎,各类沉浸式内容均可接入;零粉丝门槛:无关注数或专属工具要求,审核通过后即可发布;数据透明:提供独立访客数、互动时长等核心指标,未来还将上线更深度分析功能。开发者实测:专注创作,基建交给平台已入驻VIVERSE的沉浸式体验《Frustrain》执行制作人GregoryMolodtsov表示:"在VIVERSE上发布让我们获得基于观看量的稳定激励,同时能跨平台快速验证创意,无需陷入技术适配泥潭。平台负责基础设施,而观众洞察帮助我们规划后续内容扩展。"目前,VIVERSEPartnerProgram已开放免费注册,创作者可访问www.viverse.com/partner即刻加入,开启基于真实互动的沉浸式内容变现之旅。
自动驾驶技术公司Waymo近日宣布推出WaymoWorldModel--一款基于生成式人工智能的大型3D仿真系统,专为训练和验证其核心自动驾驶系统"WaymoDriver"而设计。该模型不仅可复现日常交通场景,还能生成现实中极为罕见甚至从未发生过的极端情境,从暴雨洪水到野生动物闯入道路,全面提升自动驾驶系统的泛化与安全能力。基于GoogleDeepMindGenie3,实现多模态高保真仿真Waymo表示,该世界模型建立在GoogleDeepMind开发的通用世界模型Genie3基础之上。Genie3通过在海量、多样化的视频数据上进行预训练,已具备对物理世界运行规律的深层理解。Waymo在此基础上针对驾驶场景进行领域适配,输出高度逼真的多传感器数据,包括摄像头图像与激光雷达(LiDAR)点云,甚至能生成包含时间维度的4D点云,提供精确的深度与运动信息。与行业主流做法不同--即仅依赖车队实际采集的道路数据从头训练仿真模型--WaymoWorldModel借助Genie3的"世界知识",突破了真实数据的局限。这意味着系统不仅能学习已发生的驾驶经验,还能"想象"并模拟从未被记录的长尾场景:比如一头大象突然出现在城市街道,或山体滑坡阻断高速公路。三大控制机制,实现灵活、可控的虚拟测试为确保仿真的实用性与可操作性,WaymoWorldModel提供了三种核心控制方式:驾驶动作控制:仿真环境能实时响应特定的车辆控制指令,实现闭环测试;场景布局控制:用户可自定义道路结构、信号灯状态及其他交通参与者的行为逻辑;语言控制:最灵活的交互方式,仅需自然语言指令即可调整昼夜、天气,甚至生成完全合成的虚构场景(如"午夜暴雨中的施工区")。更值得注意的是,该模型还能将普通手机或行车记录仪拍摄的任意视频,自动转化为多模态仿真环境。这使得Waymo能在真实地点的数字孪生中测试其Driver系统,既保留了现实世界的细节真实性,又赋予其可控的测试条件。构建更严苛的安全基准,提前应对未知挑战Waymo强调,通过将自动驾驶系统置于这些高度复杂、动态且多样化的虚拟世界中,公司得以建立比现实路测更严格、更全面的安全验证基准。在真正遭遇极端事件前,系统已在数字空间中"经历"过成千上万次类似挑战,从而显著提升其在现实世界中的鲁棒性与可靠性。这一技术标志着自动驾驶研发正从"数据驱动"迈向"知识+生成驱动"的新阶段--不再被动等待罕见事件发生,而是主动创造、学习并征服它们。
近日,国际光学工程学会(SPIE)旗下专注于增强现实(AR)硬件研发的ARAlliance宣布新增18家成员企业。此次扩容汇聚了来自全球的顶尖技术力量,涵盖基础研究、先进光学、显示技术、直觉化交互界面及空间计算平台等关键领域,标志着AR产业链协同创新进入新阶段。构建统一生态,推动AR供应链协同发展"我们正在共同构建AR。"ARAlliance主席、意法半导体(STMicroelectronics)战略营销总监BharathRajagopalan博士表示,"ARAlliance是开展实质性工作的平台--在这里,各方协力统一技术路径,推动全球AR供应链的整合、标准化与规模化,并加速创新落地。"新加入的成员横跨材料、器件、模组到系统级解决方案,展现出AR硬件生态的高度专业化与垂直深度:光学与波导技术:AlphaLum、OORYMOptics、Solnil、CREAL(光场成像)、Augmenteum(液晶主动光学)等公司聚焦下一代近眼显示核心;微型显示与半导体:RAONTECH、NichiaAmerica、KyoceraSLDLaser提供Micro-OLED、GaN激光光源等关键发光元件;投影与光机引擎:Appotronics、TriLiteTechnologies、OQmented(MEMS激光扫描)、Gixel带来多样化轻量化显示方案;感知与交互:EyeJets专注视网膜显示与眼动追踪,TDK通过其AIsight平台提供情境感知与端侧智能;制造与测试:Goertek(AR/VR整机与组件制造商)、GIS(触控与光学模组)、TechnoTeam(光度计量图像处理)支撑量产落地;学术前沿:罗切斯特大学扩展现实中心(CXR)则为沉浸式平台与光学设计注入科研动能。Rajagopalan补充道:"我们很高兴迎来这批技术深厚、产品领先的伙伴加入ARAlliance。他们的加入将极大增强我们在推动AR市场成熟方面的集体能力。"随着苹果VisionPro、MetaRay-Ban智能眼镜等消费级产品逐步铺开,底层硬件生态的协同效率正成为行业突破的关键。ARAlliance此次大规模扩容,不仅强化了从材料到整机的全栈技术联动,也为未来统一标准、降低开发门槛、加速产品迭代奠定了坚实基础。
地理信息系统技术提供商Esri本周宣布,与瑞士摄影测量软件公司Pix4D合作推出一项全新的地面测绘工作流。该方案专为基础设施管理机构设计,旨在将地下隐蔽资产转化为可操作、高精度的数字数据。从现场扫描到AR验证:打通地下资产数字化闭环此次合作的核心在于将Pix4D旗下移动应用PIX4Dcatch采集的资产数据,直接无缝集成至Esri的ArcGIS地理空间平台。外业团队可在现场使用PIX4Dcatch配合实时动态定位设备,对管沟、管线等基础设施进行高精度扫描。所生成的数据不仅具备厘米级地理参考精度,还可一键发布至ArcGISOnline,并自动转换为3D模型与点云,以"场景图层"形式呈现。更关键的是,这些模型支持在增强现实环境中叠加显示,实现"设计图纸"与"实际施工"状态的直观比对。这一能力使工程团队能在回填前即时验证施工准确性,大幅降低返工风险,并在整个项目生命周期中保留高保真度的数字档案。
2026年2月17日起,任天堂将通过SwitchOnline+ExpansionPack会员服务正式推出《VirtualBoy经典游戏合集》。这是自1995年该主机停产后,时隔三十余年,任天堂首次以官方形式重新发布VirtualBoy的游戏内容。为体验这些原生支持立体3D效果的游戏,用户不仅需订阅高级会员服务,还需额外购买任天堂推出的两款新配件--一款是售价99.99美元(约合人民币720元)的塑料复刻版VirtualBoy头显,另一款则是定价24.99美元(约合人民币180元)的纸质模型。LaboVR能否"曲线救国"?值得注意的是,有消息称2019年推出的LaboVR--那款基于纸板DIY、早已停产的Switch外设--或许也能运行VirtualBoy游戏。一位任天堂代表曾公开表示,LaboVR在功能上与新款纸质VirtualBoy头显"效果相当"。然而,这一说法很快被公司官方"打脸"。任天堂迅速发布声明强调,LaboVR并未获得对VirtualBoy内容的官方支持,并建议用户优先选购新推出的专用设备。这种前后矛盾的说法引发了不少猜测。一方面,VirtualBoy采用的是主动式立体3D显示技术,而LaboVR原本是为Switch平面屏幕设计的简易VR方案,两者在技术原理上存在差异;另一方面,也不排除任天堂有意推动新品销售,从而淡化LaboVR的存在感。目前唯一能验证真相的方式,就是在2月17日服务上线后亲自测试。据任天堂明确说明,若无立体3D头显设备,用户将无法在Switch上运行VirtualBoy经典游戏。官方入场,终结民间模拟时代事实上,多年来玩家社区早已通过非官方手段在现代VR设备上运行VirtualBoy游戏。但此次是任天堂自1996年停售该主机以来,首次以第一方身份重新包装并发行相关产品,标志着这一"失败遗产"正式回归主流视野。
在CES2026上,"PhysicalAI"(具身AI)成为贯穿全场的核心议题。曾经局限于屏幕与服务器中的AI,如今正通过机械躯体进入人类的生活空间。这种转变不仅带来技术上的突破,也引发了对人机共处方式的深层思考。力量的威慑:Unitree人形机器人格斗演示中国初创公司Unitree展出了两台人形机器人进行对抗性格斗的演示。它们通过强化学习优化动作策略,在展台上全力出拳、踢腿。即便被击中失衡,也能迅速恢复站立--展现出令人印象深刻的动态稳定性。尽管动作偶尔因判断失误而空挥,或因惯性摔倒,但一旦命中目标,其冲击力仍透露出一种原始而粗粝的力量感。由于演示被限制在围栏内,观众尚能安心观看;但若设想这些机器人出现在身边,那种不可控的"物理存在感"难免引发一丝不安。超越人体常识的运动逻辑:BostonDynamics的AtlasBostonDynamics宣布其人形机器人Atlas即将进入量产阶段。在一段模拟工厂作业的演示中,Atlas以高度拟人化的外形登场,却展现出完全违背人类运动直觉的动作模式:关节可360度旋转,无需预摆即可瞬间启动,所有动作都沿着最短、最高效的路径完成。人类习惯通过肩部姿态、视线方向等微小线索预测他人下一步行动,从而维持安全距离。但具身AI所采用的"最优解"往往跳脱这一认知框架--效率越高,越不像人。这种"非人感"并非缺陷,却构成了人机共处时的认知摩擦。要与这类拥有超常身体能力的AI共享空间,仅靠对技术的信任远远不够,还需新的交互范式与心理调适机制。值得一提的是,演示中操作员通过VR头显远程引导Atlas完成任务后,机器人便能自主复现整套流程,显示出从示教到自主执行的闭环能力。可预测的亲和力:Sentigent的ROVARX3在众多强调性能与效率的机器人中,SentigentTechnology展出的户外陪伴机器人ROVARX3显得格外温和。它在草地上奔跑、追逐球体、被抚摸时做出愉悦反应,动作节奏与情感表达贴近宠物犬的行为逻辑。这种设计刻意保留了人类可理解的上下文线索--我们能自然推测"它可能想玩""它喜欢被摸"。对于以陪伴、看护为目标的机器人而言,这种"可预测性"反而构成了用户体验的核心价值。空间级协同:富士通的SpatialWorldModel富士通展示的"SpatialWorldModel"技术提供了一种更高维度的解决方案。不同于单个机器人仅感知局部环境,该系统试图构建包含人、机器人、物体在内的整体空间模型,并进一步推断各方"意图",预测未来状态变化。在展台演示中,通过顶部摄像头与机器人本体视觉融合,系统实时追踪区域内动态。当有人靠近禁区,机器人会通过跺脚等明显动作发出警告;同时,地面投影直观显示其当前状态与决策逻辑。未来,若结合智能眼镜等个人设备,系统或可利用用户第一视角数据扩展感知范围,并通过AR轻量提示机器人下一步动作。这种"意图书写"式的沟通,或许能弥合人与非人实体之间的认知鸿沟。CES2026清晰地表明:具身AI已从概念走向落地。然而,技术演进的速度远超社会心理与交互设计的适应能力。当机器人真正走进街道、家庭与工作场所,人如何感知、信任并与其协作,将成为比算法精度更关键的问题。XR、空间建模与行为可解释性,或将成为构建"共处体验"的新基础设施。
从"看影像"到"用AI":眼镜型设备的路线分化在2026年美国拉斯维加斯举办的CES展会上,眼镜形态的可穿戴设备呈现出明显的演进分野。过去以增强现实为核心、强调空间叠加视觉内容的AR眼镜正逐渐让位于一类新物种--"AI眼镜"。后者不再执着于构建沉浸式虚拟画面,而是聚焦于生成式AI的日常交互,将眼镜作为语音助手、实时翻译、信息提示等智能服务的轻量化入口。这一转变标志着行业重心正从"技术炫技"转向"实用嵌入",也预示着可穿戴设备正在寻找真正融入用户生活的路径。典型产品:三类AI眼镜的实用主义实践NuanceAudio:无屏听觉增强眼镜这款产品彻底摒弃了显示屏,外观与普通粗框眼镜无异,却通过波束成形(Beamforming)技术定向放大前方说话者的声音。它不叠加视觉信息,而是以技术手段自然延伸人类听觉能力,代表了一种"非视觉中心"的可穿戴思路。EvenRealitiesG1/G2:信息提示型AI眼镜搭载单色绿色微型显示屏,仅用于呈现AI生成的文字内容--如演讲提稿、通知提醒或实时翻译。设计极度低调,几乎无法与普通眼镜区分。其在日本已上市的G2版本进一步扩大可视区域,并支持与智能指环"EvenR1"联动,实现单手操作,强化了"信息辅助"而非"娱乐沉浸"的定位。LLVisionLeionHey:沟通导向的字幕眼镜专注于跨语言与无障碍交流,能将对话内容实时以字幕形式投射至镜片。不仅服务于多语种用户,也为听障人士提供沟通支持。其核心逻辑是"看见语言",而非"观看视频",凸显AI在社会性场景中的工具价值。配套生态:输入、隐私与生物信号的新解法随着AI眼镜普及,如何私密、高效地进行交互成为关键瓶颈。CES上涌现出一批旨在与眼镜协同工作的辅助设备:Wearphone:形似口罩的可穿戴麦克风,覆盖口部实现无声语音输入,解决公共场合使用AI语音助手的隐私顾虑;AIVELARingPro:多功能智能指环,通过触控与手势远程操控眼镜界面,避免频繁触摸镜腿;MudraBand:AppleWatch专用表带,利用表面神经传导(SNC)技术捕捉手指微动,实现无接触手势控制;OVOMIND:情感识别手环,通过生理信号分析用户情绪状态,未来或可驱动AI眼镜提供情境感知式响应。这些设备共同指向一个趋势:AI眼镜不会孤军奋战,而是作为"感知-交互-反馈"闭环中的视觉节点,与其他可穿戴硬件组成协同系统。路线之争:AR与AI眼镜的本质差异尽管两类设备常被混为一谈,但其底层逻辑已明显分化:AR眼镜追求空间计算与视觉沉浸,目标是"在现实世界中叠加数字体验";AI眼镜则聚焦任务效率与信息获取,目标是"让AI服务无缝介入日常生活"。值得注意的是,许多AI眼镜虽配备显示屏,但其用途仅限于简洁文字提示,拒绝复杂图形渲染。这说明分类标准不应是"有无屏幕",而应是"提供何种体验"--是视觉奇观,还是实用信息?回归"眼镜"本质:可穿戴设备的务实进化本届CES透露出一个清晰信号:行业正放弃对"未来感"的执念,转而拥抱"日常感"。与其发明全新形态的穿戴装置,不如直接复用人类已习惯百年的"眼镜"这一载体,在其上叠加恰到好处的智能功能。这种"地气十足"的演进路径,或许比炫目的全息投影更接近可穿戴设备的终极目标--不是让用户适应技术,而是让技术隐形于生活。如今,用户不再需要在"要不要用AR"之间做选择,而是可以根据自身需求,在"看影像"和"用AI"之间自由匹配。这种基于场景的自然分化,或许正是可穿戴生态走向成熟的真正标志。
据路透社等主流媒体报道,苹果以约16亿美元收购了成立于2022年的初创公司Q.ai。若该金额属实,这将成为苹果史上第二大收购案,仅次于2014年30亿美元收购Beats。尽管Q.ai自创立以来一直保持"隐身模式",对其技术细节守口如瓶,但其创始团队背景与专利文件已透露出明确方向--该公司专注于"无声语音"识别技术,即将用户未发出声音的唇舌与喉部肌肉微动转化为文本。这项能力对苹果正在秘密推进的智能眼镜项目至关重要。在公共场合中,用户无需开口即可向AI助手下达指令或发送私密信息,既保障隐私,又避免社交尴尬--这正是可穿戴设备取代智能手机必须跨越的关键体验门槛。创始团队:视觉感知领域的"梦之队"Q.ai的三位联合创始人均出身于顶尖感知技术公司。CEOAviadMaizels曾创立PrimeSense--该公司于2013年被苹果收购,其深度传感技术直接催生了FaceID,并曾为微软初代Kinect提供核心方案。CTOYonatanWexler博士则是世界级计算机视觉专家,曾任OrCam研发副总裁,主导将高端视觉算法压缩进可夹在眼镜上的微型设备中。如此阵容暗示,Q.ai的技术路径并非依赖贴附式生物传感器,而是另辟蹊径。视觉方案vs.肌电传感:两条技术路线之争"无声语音"并非全新概念。另一家名为Alterego的初创公司采用硬件方案,在用户下颌佩戴肌电传感器捕捉肌肉电信号。而Q.ai的专利《无声语音检测》(Detectionofsilentspeech)则揭示其独特思路:通过朝向用户面部的微型摄像头,捕捉面部反射光的变化,从而推断出未发声的言语动作。专利中描述了一种"位于用户面部附近的光学传感头",能"感应从面部反射的光线并输出相应信号"。这意味着无需接触皮肤,仅凭视觉即可实现语音意图识别--这一特性天然适配眼镜形态设备。苹果的整合前景:从VisionPro到下一代智能眼镜业内普遍预期,Q.ai的技术将首先集成至AppleVision系列头显,随后延伸至AirPods耳机柄部,最终落地于传闻已久的苹果智能眼镜。知名记者MarkGurman与分析师郭明錤均指出,苹果正全力开发轻量化AR眼镜,而输入方式正是最大瓶颈之一。相比之下,Meta选择另一条路径:让用户在大腿等表面手写字符,通过佩戴在手腕的sEMG频带识别动作。无论哪种方案胜出,一个共识已然形成--在公共场景中实现私密、高效、无干扰的文本输入,是智能眼镜能否真正替代手机的核心前提。
在一月落幕的CES2026上,一个趋势已无可争议:智能眼镜不再只是小众实验品,而正在快速演变为一个具备成熟供应链、重磅合作与真实应用场景的主流硬件赛道。从专为游戏优化的高刷设备,到下一代光波导技术,展会现场与闭门演示中密集发布的新品,预示着增强现实(AR)与扩展现实(XR)即将迎来爆发之年。XREAL成最大赢家:高刷屏、谷歌合作与亿元融资三连击中国厂商XREAL无疑是本届CES最受瞩目的玩家。其宣布与华硕ROG联手推出全球首款240Hz刷新率智能眼镜,瞄准硬核游戏玩家对极致流畅画面的需求。该设备不仅可作为便携式游戏显示器,连接PC后还能胜任生产力任务,进一步强化其"多场景终端"定位。更关键的是,XREAL宣布与Google达成多年期战略合作--这不仅是2026年首项重大AndroidXR开发动态,也暗示其不会因ProjectAura的阶段性结束而退出AndroidXR生态。此外,公司同步披露已完成1亿美元新一轮融资,彰显资本对其长期技术路线的高度认可,也为后续产品迭代与全球扩张提供了充足弹药。Viture推出"野兽级"新品,3DoF追踪引爆竞争另一家中国品牌Viture在私密展间展示了代号为"TheBeast"(野兽)的新一代设备。其显示素质堪称惊艳,但真正具有战略意义的是首次引入3自由度(3DoF)头部追踪功能--这意味着Viture正式切入与XREAL直接竞争的沉浸式交互赛道。业内预计,这项能力将在2026年下半年逐步下放至更多品牌产品线,推动整机体验升级,并让消费者以更优价格获得更高性能设备。Lumus光学突破:70°视场角光波导指明AR未来方向本届展会最佳技术演示来自光学方案商Lumus--Meta多款AR眼镜的核心供应商。其最新发布的几何光波导技术实现了70°视场角(FOV),较当前主流产品提升近一倍。尽管该方案不会在2026年落地消费端,但有望于未来两年内集成至高端设备。其优势在于:光效高、无漏光(消除"眼Glow"问题)、轻量化且画质保真。一旦量产,AR眼镜将从"信息提示器"真正进化为"沉浸式视觉入口"。供应链成熟催生新玩家涌入,价格带迅速拓宽CES2026的另一显著趋势是大量新品牌入局。Amazfit(华米)、XGIMI(极米)等原本聚焦可穿戴或投影领域的厂商,纷纷推出自有AR眼镜。背后原因清晰:核心模组与参考设计已高度标准化,企业只需微调即可快速推出有竞争力的产品。这一变化大幅降低行业门槛,加速产品多样化,并推动价格覆盖从入门到旗舰的全区间--智能眼镜正从"早期尝鲜者专属"转向"大众消费品"。超越"AI万能论":真实应用场景开始落地尽管"AI"仍是厂商解释智能眼镜价值的默认答案,但CES展示了更具体的用例:移动支付:Rokid演示通过眼镜完成NFC支付,钱包或将被彻底取代;健身指导:Amazfit与Meta均展示实时运动数据叠加,让眼镜化身私人教练;健康监测:如RealitiesG2已通过R1智能戒指整合心率、血氧等生理指标;主动式AI助手:AI不再被动应答,而是能监听对话并主动插入相关信息。这些进展表明,智能眼镜的价值正从"炫技"转向"实用"。2026:智能眼镜走向大众化的关键拐点综合来看,CES2026传递出强烈信号:智能眼镜产业已进入"技术-生态-应用"正向循环。XREAL的生态布局、Viture与RayNeo的体验升级、Lumus的底层光学突破,加上供应链成熟带来的百花齐放,共同构筑了规模化普及的基础。真正的考验在于:消费者是否愿意在游戏与健身之外,将智能眼镜融入日常生活?随着AI变得更主动、场景更丰富,答案或许比想象中来得更快。
2025年8月,谷歌旗下AI研究实验室DeepMind发布了Genie3,展示了一套能够实时生成交互式虚拟环境的AI系统。如今,谷歌正式向部分用户开放该技术的实验性原型--GoogleAI订阅用户即可通过网页界面亲自体验。虽然目前尚不能"即时生成完整VR世界",但这一进展已让梦想中的"AI游戏引擎"轮廓初现。双提示输入+实时编辑,迈向生成式虚拟空间Google将ProjectGenie定义为"实验性研究原型",并非成熟的消费级产品。其核心功能是让用户通过网页界面创建、探索并修改交互式虚拟环境。与常见的图像或视频生成模型类似,Genie也依赖文本提示和/或参考图片作为输入。但它的设计更进一步:系统提供两个主要提示框--一个用于描述整体环境(如"中世纪城堡庭院"),另一个用于定义角色(如"持剑骑士")。此外,还有一个辅助提示框允许用户在最终生成前微调细节,例如"把剑变大"或"将树木改为秋季状态"。当前仍处早期阶段,功能与物理逻辑均有局限据谷歌官方博客说明,作为早期研究系统,ProjectGenie存在多项限制:生成的环境可能无法严格遵循真实物理规律;角色控制响应尚不稳定;单次会话时长限制为60秒;部分此前公布的高级功能尚未上线。目前,用户唯一可导出的内容是一段体验视频,但可以浏览并"混搭"平台画廊中其他用户创建的虚拟世界。该原型现阶段仅面向美国地区年满18岁的GoogleAIUltra订阅用户开放,未来计划逐步扩大可用范围。
2025年12月,Diver-X从CrossTechManagement获得力触觉反馈设备"EXOS"系列的业务许可。此举标志着Diver-X将全面强化在XR、机器人及物理AI等前沿领域中的操作交互体验。Diver-X此前已在手套式控制器中集成触觉反馈技术,但为实现更高层级的沉浸感,公司判断必须引入能对肌肉施加反作用力的力触觉技术。此次取得EXOS相关资产,正是其战略升级的关键一步。从外骨骼到机器人手:构建完整手部交互技术栈"EXOS"是一套外骨骼式力反馈装置,可精准模拟用户在虚拟环境中触摸数字物体时所感受到的阻力与反力。该技术最初由exiii开发,在该公司解散后由CrossTechManagement承接。如今,Diver-X通过授权获得了包括"EXOSWrist"(手腕刺激模块)在内的多项核心技术,以及覆盖五指触觉反馈的完整产品体系。此外,Diver-X还取得了原用于机器人手的基盘单元"HandUnit"的相关知识产权。这意味着公司已具备从人机交互输入端到机器人执行端的全链路手部操作技术能力。未来,这些资产将与Diver-X现有技术深度融合,推动下一代人机界面的商业化落地。聚焦远程操控与物理AI数据闭环下一步,Diver-X将重点投入机器人远程操作系统的开发,并计划在工业场景中推进物理AI所需的真实世界操作数据采集。公司认为,在虚实融合加速演进的背景下,高保真力触觉交互将成为连接数字指令与物理执行的核心桥梁。
VR52网成立于2015年,平台提供VR头显、AR眼镜、配件外设、厂商、测评、行业资讯、游戏与应用、展会活动等。