德国增强现实(AR)光学技术初创公司Gixel宣布完成500万欧元种子轮融资,将用于推进其面向AI与AR眼镜的下一代光学显示系统研发。本轮融资由OculusVR联合创始人BrendanIribe领投,Flixbus创始人、德国联邦颠覆性创新署(SPRIND)共同参与。此外,前二十世纪福克斯与派拉蒙影业首席未来学家TedSchilowitz也作为战略投资者加入,彰显业界对Gixel技术前景的高度认可。突破光学瓶颈:轻薄、高透、广视角的AR显示新方案当前智能眼镜面临三大核心挑战:轻量化、低功耗、高透明度,而其中最关键的瓶颈在于光学显示系统。现有技术往往在视野宽度、能耗、佩戴舒适度之间难以兼顾。Gixel正致力于解决这一难题。公司已开发出一套专有光学显示技术,具备以下关键优势:✅超高透明度:即使在断电状态下,镜片透明度接近普通眼镜,不影响日常视觉✅超广视角(FOV):相比现有消费级AR眼镜,可提供更宽广的虚拟图像覆盖范围✅低功耗&低发热:适合集成于轻薄镜片中,延长续航,提升佩戴舒适性✅支持变焦平面(VarifocalDisplay):实现精确的深度感知,用户可自由调节虚拟内容的显示距离与位置,减少视觉疲劳该公司表示,其显示效果已达到接近智能手机屏幕的画质水平,同时保持了眼镜形态的轻便性,为真正"日常可用"的AR眼镜铺平道路。技术团队背景深厚,专注全尺寸AR显示研发Gixel成立于2019年,总部位于德国,自2021年起专注于全尺寸AR显示器的研发。其核心团队由三位联合创始人领衔:MiloTaffanel博士:弗劳恩霍夫研究所光学专家,深耕纳米光学与光子学DingLuo博士:显示物理与系统工程专家FelixNienstadt:连续创业者,现任CEO目前,公司已组建一支由15名成员组成的国际化研发团队,成员背景涵盖显示物理、纳米光学、系统工程与高精度制造等领域,具备从底层技术到产品落地的全链条能力。商业进展:原型开发中,已向合作伙伴提供开发工具包Gixel目前正在开发一款功能完整的工程原型,并已向部分战略合作伙伴提供开发工具包(DevKit),用于早期生态构建与应用场景验证。CEOFelixNienstadt表示:"这笔融资是重要里程碑。我们正稳步推进,致力于将可穿戴AI与AR技术变为现实。我们的目标是打造真正适合全天佩戴的智能眼镜核心显示方案。"公司计划在下一阶段启动新一轮融资,并为未来规模化生产与制造能力做准备。展望:光学创新是AR普及的关键一步随着苹果VisionPro、Meta、小米等巨头纷纷布局空间计算与智能眼镜,市场对高性能、低成本、可量产的光学方案需求日益迫切。Gixel的技术路径若能成功商业化,有望成为AR眼镜产业链中的关键一环,为下一代"类眼镜形态"的智能终端提供核心支撑。
科技巨头阿里巴巴日前宣布推出其首款人工智能智能眼镜--夸克AI眼镜。这款产品标志着阿里巴巴首次涉足智能眼镜领域,并展示了其在人工智能技术上的深厚积累。搭载自主研发AI模型Qwen,实现语音控制多功能操作夸克AI眼镜内置阿里巴巴集团自主研发的AI模型Qwen及其专属AI助手Quark。用户只需通过语音指令,就能轻松完成拨打电话、播放音乐等操作,无需动手即可享受便捷服务。此外,该眼镜还计划支持实时翻译与会议记录自动转录功能,满足商务人士的多样化需求。主要功能亮点:语音操控:免提拨打/接听电话、播放音乐实时翻译:跨语言交流无障碍会议记录:自动生成文字记录,提升工作效率内置摄像头:捕捉精彩瞬间,随时记录生活无缝集成阿里巴巴生态系统,提供一站式服务体验夸克AI眼镜不仅是一款独立的智能设备,它还能与阿里巴巴旗下的多项服务无缝对接,包括:导航服务:提供精准路线指引支付宝支付:实现便捷的移动支付体验淘宝比价:随时随地查看商品价格信息这种全方位的服务整合,使得夸克AI眼镜成为用户日常生活中的得力助手,无论是出行、购物还是办公场景都能游刃有余。智能眼镜:下一个消费电子热点在全球科技行业中,可穿戴设备尤其是智能眼镜被视为智能手机之后的下一个重要发展方向。在国内市场,另一家知名科技企业小米已经推出了自己的智能眼镜产品--小米AI眼镜,并获得了市场的广泛关注。随着5G网络的普及和技术的进步,智能眼镜作为下一代个人智能终端设备,预计将在未来几年迎来爆发式增长。阿里巴巴选择此时进入这一领域,正是看中了智能眼镜在未来智能家居、智慧城市以及物联网应用中的巨大潜力。上市计划与展望据官方透露,夸克AI眼镜计划于2025年底在国内市场正式发售,具体的定价及详细规格目前尚未公布。不过,凭借阿里巴巴强大的技术研发能力和丰富的生态资源,夸克AI眼镜无疑将成为智能眼镜市场上的一颗新星,值得期待。
昨日,开源可穿戴技术提供商BrilliantLabs宣布推出一款全新的轻量级AI眼镜--Halo。这款眼镜不仅外观与普通眼镜无异,还集成了多种先进功能,包括内置显示屏、全面传感器套件以及支持通过其内置助手Noa进行自然语言交互。亮点概览🚀创新特性实时多模态对话界面:实现语音与视觉输入的无缝融合;Narrative长期记忆系统:将用户的个人体验转化为个性化知识库,支持长期回忆与推理;VibeMode氛围编码助手工具:仅需自然语言输入即可创建个性化的AI应用。👓设计美学Halo的设计旨在"与普通眼镜别无二致",并可通过与SmartBuyGlasses的合作选择定制处方镜片,确保佩戴舒适度与实用性。硬件规格详解尽管外形紧凑,Halo却集成了众多先进技术:光学传感器、IMU(惯性测量单元)、麦克风阵列和骨传导扬声器;0.2英寸全彩MicroOLED抬头显示器(HUD):被称为"HaloDisplay",能够投影复古街机风格的界面,并适应广泛的瞳距范围;长达14小时的电池续航:即便集成如此多的技术,仍能保证长时间使用;AlifSemiconductorB1芯片:超低功耗微控制器,配备集成神经处理单元(NPU),用于设备端的AI和传感器融合。HaloDisplay模块将全彩图像直接投射到用户的眼睛。NoaAI助手的工作原理Noa是BrilliantLabs的内置AI代理,采用边缘计算的多模态处理技术来理解和响应视觉和听觉输入。新的Narrative系统可以组织用户的第一人称经历,形成个性化的知识库,从而实现长期记忆和推理能力。VibeMode:非程序员也能创造AI应用VibeMode是一项实验性功能,允许用户通过自然语言命令创建自定义AI应用程序。用户只需向Noa描述需求,后者即可生成、显示并直接在设备上运行定制的应用程序。这大大降低了开发门槛,使得即使没有编程经验的人也能轻松制作和分享新工具。此外,用户还可以修改或基于社区已有的应用进行二次创作,促进快速迭代和协作开发。隐私保护措施隐私保护是Halo的核心关注点之一。BrilliantLabs表示,Noa助手如同一个"虚拟私人网络"(VPN),介于用户与AI模型之间,所有摄像头、麦克风等设置均可通过语音指令管理。更重要的是,所有由Halo捕捉到的视听数据都会在设备端转换为不可逆的数学表示形式,不会存储任何富媒体文件或与第三方共享。发售信息Halo将于2025年11月开始全球发货,售价为299美元(哑光黑款)。值得注意的是,Halo将沿用前代产品Frame的限量发售模式,在首发时仅提供有限数量的设备供购买。
加拿大温哥华健身科技公司FORM近日宣布推出其最新一代增强现实(AR)智能游泳眼镜--SmartSwim2PRO。该产品在2024年4月发布的SmartSwim2基础上全面升级,最大亮点是内外镜片均采用康宁®大猩猩®玻璃3(GorillaGlass3),显著提升抗刮擦性、耐用性与视觉清晰度。这款专为游泳爱好者、竞技泳者及铁人三项运动员设计的智能装备,标志着AR技术在水上运动领域的持续深化应用。强化镜片:从"塑料"到"玻璃"的跨越与传统塑料泳镜不同,SmartSwim2PRO的内外镜片均采用康宁大猩猩玻璃3--这一材料广泛应用于高端智能手机和可穿戴设备,以出色的抗冲击和防刮性能著称。升级优势包括:✅更强耐久性:有效抵抗日常使用中的刮擦与磨损✅更高透光率:提供更清晰、真实的水下视野✅UPF50+防护:结合FORM自研光学堆栈,可阻挡98%有害紫外线,保护眼部健康此外,为解决泳镜起雾难题,FORM放弃了常见的工厂涂层防雾技术,转而采用用户可重复涂抹的防雾方案:配套提供10mL喷雾+10mL浓缩液官方称稀释后可使用超过175次更环保、更持久,避免传统防雾层随时间失效的问题核心功能全面保留:水下也能"看数据"SmartSwim2PRO完全继承前代核心功能,将AR显示屏直接嵌入泳镜视野,实现实时数据可视化:📊实时训练指标:速度、划频、距离、配速等即时显示❤️心率监测:内置光学传感器,支持水下心率追踪🎧AR引导训练:无需抬头看墙钟,训练节奏全程可视🏊♂️HeadCoach虚拟教练系统:个性化指导,模拟专业教练陪练体验🧭开放水域导航(SwimStraight):通过方向提示帮助保持直线游进,提升户外游泳效率这些功能让泳者专注于动作与节奏,真正实现"数据随行,一镜掌控"。价格与上市信息SmartSwim2PRO当前定价如下:💵329美元(USD)💲449加元(CAD)💷279英镑(GBP)💶329欧元(EUR)💴529澳元(AUD)目前已通过FORM官网在美国和加拿大正式发售,并将在全球范围内于8月初陆续上市,支持部分精选零售商渠道。FORMPremium订阅服务将迎重磅更新FORM同步宣布,其Premium会员订阅服务将在近期推出多项新功能,适用于所有世代的FORM智能泳镜用户:功能上线时间亮点HeadCoach训练计划2025年7月基于用户目标与表现的自适应个性化训练计划SmartSet智能组间追踪2025年7月组间休息、间隔时间等实时显示于镜中HeadCoachInsights深度反馈2025年9月游后提供专业级分析与改进建议,复刻精英教练指导体验订阅价格:9.99美元/月(首月免费试用)会员权益包含:超1,500个训练课程45套系统化训练计划全套虚拟教练工具新增免费功能:Streaks连续打卡为鼓励用户养成规律游泳习惯,FORM还推出全新非会员功能--Streaks(连续打卡):自动记录连续游泳天数可视化激励界面,增强运动坚持动力无需订阅即可使用
全球领先的增强现实(AR)波导技术开发商Lumus与知名电子制造服务(EMS)巨头广达电脑(QuantaComputer)宣布进一步扩大战略合作,共同推进反射式波导光学引擎的规模化量产。此次合作标志着AR关键光学技术正从实验室走向大规模商业化应用的关键阶段。双方计划加快将Lumus的先进波导技术导入消费级AR眼镜市场,并致力于构建稳定、高效、可扩展的生产体系,以满足日益增长的行业需求。专有自动化产线落地,提升产能与良率作为合作升级的核心举措,广达电脑将设立一条专用于Lumus波导开发的自动化生产线。该产线专注于小型化光学引擎的精密制造,显著提升了生产效率与产品良品率。这一投资不仅强化了制造端的工艺控制能力,也为未来大批量交付高品质AR光学模组奠定了坚实基础,助力OEM厂商更便捷地集成先进AR显示方案。技术优势:宽视场+标准化工艺Lumus自2000年成立以来,始终专注于波导光学技术的研发。过去五年间,公司已累计交付超过55,000片波导模组,广泛应用于工业、医疗和消费领域,其中多数产品由包括广达在内的多家制造伙伴生产。其核心技术优势在于:✅支持宽视场角(FOV),提升沉浸感✅采用统一、可复制的生产工艺,确保不同批次间的一致性✅易于集成至OEM客户的产品设计中,降低制造复杂度与成本Lumus首席执行官AriGrohman表示:"许多人误以为反射式波导难以实现量产。事实上,通过与广达的长期合作,我们持续投入自动化、工艺优化和专用设备开发,已经建立了一条清晰且可扩展的量产路径。现在,我们正将这一技术推向主流市场。"制造实力背书:广达的跨界布局广达电脑成立于1988年,是全球最大的笔记本电脑ODM厂商之一,客户涵盖苹果、戴尔、惠普、联想等国际巨头。近年来,广达积极拓展至云计算、智能家居、物联网及新兴的XR领域,具备强大的系统集成与规模化制造能力。广达副董事长兼总经理梁志坚表示:"我们对自动化设备和专用产线的投入,体现了对AR未来的坚定信心。Lumus在波导技术上的创新力与可扩展性令人期待。我们希望通过此次深化合作,共同推动AR产业从早期探索迈向全面量产的新阶段。"行业意义:迈向消费级AR的关键一步此次Lumus与广达的合作升级,不仅是两家公司的战略协同,更是整个AR产业链走向成熟的重要信号。随着光学引擎这一核心组件的量产瓶颈逐步突破,未来更多高性能、低成本、轻量化的消费级AR眼镜有望加速面市,推动AR技术真正走入日常生活。值得一提的是,Lumus早在2020年便与德国工业玻璃巨头肖特(SCHOTT)达成合作,建立了波导基板的量产供应链体系,进一步巩固了其在光学材料与制造生态中的领先地位。写在最后AR的未来,不仅取决于芯片、算法与内容,更依赖于光学、制造与供应链的协同突破。Lumus提供"眼睛",广达打造"工厂",两者的联手,正在为下一代可穿戴显示设备铺平道路。当光学技术遇上世界级制造,AR的"iPhone时刻"或许已不再遥远。
一款专为记录与分享日常生活精彩瞬间而生的智能眼镜型相机--Waves,现已正式开启全球预订。Waves的设计理念源于两个核心理念:🔹"捕捉瞬间的额外视角"🔹"为热爱分享的人而生"它不追求复杂的增强现实(AR)显示功能,而是专注于纯粹、高质量的影像记录与即时分享,让每一个平凡时刻都能被自然、真实地留存。核心影像性能📷12MP高清传感器,支持10位色彩深度与HDR视频录制🎥最长10分钟连续拍摄,支持16:9(横屏)与9:16(竖屏)两种宽高比,适配多平台发布需求⏪智能剪辑功能(ClipBack):只需双击快门按钮,即可自动保存此前1分钟内的视频片段,不错过任何突发精彩瞬间强大的直播能力Waves不仅是记录工具,更是移动直播利器:🌐支持标准RTMP协议,可无缝推流至主流平台:→Twitch|YouTube|TikTok|Facebook|X(原Twitter)等🔋支持热插拔备用电池:更换电池时无需关机,实现不间断拍摄与直播,彻底告别电量焦虑设计与限量款式Waves提供三种独特设计,每款全球限量500副,极具收藏价值:OnyxSquare–经典方框造型,低调沉稳OnyxRound–圆润镜框设计,复古优雅Y2KSilver–银色未来感镜框,致敬千禧年美学预订信息💳预订押金:99.99美元此为可退还的优先预订金,非最终售价💵预计零售价:300-500美元📅正式发售预订将于9月启动写在最后Waves并非试图取代手机或运动相机,而是提供一种更自然、更隐形的拍摄方式--像佩戴一副普通眼镜一样,随时记录你的第一视角生活。无论你是内容创作者、Vlogger,还是simply想要"多一个眼睛"看世界的人,Waves都可能是你下一件不可或缺的数字配件。用Waves,看见你曾忽略的瞬间。
近日,美国专利商标局(USPTO)公开了一项Apple提交的专利申请,详细描述了一款模块化、可调节支撑系统的头戴式电子设备,适用于增强现实(AR)或虚拟现实(VR)眼镜。这项专利揭示了Apple在未来轻量化、可穿戴显示设备领域的又一重要布局。专利核心内容概述设备结构与设计亮点Apple的这项专利聚焦于佩戴舒适性、贴合度与模块化扩展能力,其核心是一个可旋转、可调节、可拆卸的头戴支撑系统,旨在为用户提供更舒适的长时间佩戴体验。主要组件包括:显示框架或外壳:承载光学组件(如镜头、透明窗口或显示屏)固定臂、绑带或带状结构:用于稳定设备在用户头部的位置头部接触组件(Head-EngagementMember):通过关节与设备臂连接,可旋转展开或收纳可在"收纳状态"与"展开状态"之间切换配备弹簧、预加载材料以提供张力摩擦接口(如指状结构或纹理表面)用于增强与皮肤或头发的抓握力可调节长度、可变形结构,适配不同头型支持顶部连接结构(OverheadLinkage)提供额外支撑可拆卸或滑动式设计,便于模块化升级折叠与支撑臂设计:折叠臂:可在某一平面上旋转支撑臂:可在垂直于折叠臂的平面旋转支撑臂可嵌套于折叠臂内,通过弹簧自动复位至收纳状态可拆卸支撑组件(RemovableSupportAssembly):包含可调节的支撑鳍片(SupportFin)和头部接触面通过眼镜臂连接器与眼镜臂相连眼镜臂中可集成电子元件,如处理器、电池等设备电子集成能力Apple在专利中还描述了设备内部的电子组件集成方式,包括:显示与光学组件:投影仪、光波导、扬声器等计算与供电单元:处理器、电池、电路板所有组件均可集成于显示框架、固定臂或专用电子舱中这种高度集成的设计理念,意味着Apple正在探索一种轻量化但功能完整的AR/VR眼镜形态,可能成为未来"VisionPro轻量版"或"日常佩戴型AR眼镜"的雏形。专利图示解读展示了智能眼镜#100的正面透视图头部接触组件#1000可上下旋转,以适应用户头部轮廓接触组件包含两个侧部#1002和一个中部#1004关节#1006设置在眼镜臂#106和#108上侧部或中部组件可为可变形结构,包括:可塑形部分可调部分自适应贴合部分可压缩部分等此外,组件也支持长度可调,具备伸缩、滑动、伸展、收缩等功能,进一步提升佩戴适应性。图1:AR/VR眼镜在用户头部的顶部轮廓图图2-3:展示头部接触组件在"收纳"与"展开"状态下的侧面视图图9:展示配备可拆卸支撑组件的头戴设备侧面图AppleVisionPro的技术延续这项专利的发布,与AppleVisionPro的设计理念一脉相承。此前,AppleVisionPro项目负责人MikeRockwell曾透露,该设备背后有超过5,000项专利支撑。Apple一贯采用"专利先行"策略,围绕其未来产品构建庞大的技术护城河。此次曝光的专利,是Apple自2020年以来在模块化智能眼镜方向上的又一重要技术积累。苹果AR/VR战略展望Apple一直致力于打造一款可日常佩戴的轻量化AR眼镜,而非仅限于VR游戏或专业场景。从VisionPro的高规格设计,到如今这项专利所体现的模块化、舒适性与可调节性,Apple正在为未来"消费级AR眼镜"的落地做全面准备。这项专利的意义在于:✅提升佩戴舒适性:解决目前AR/VR设备普遍存在的佩戴疲劳问题✅增强适配性:适配更多头型、使用场景和佩戴习惯✅模块化设计:支持配件扩展、功能升级,延长设备生命周期✅为消费级AR眼镜铺路:未来或推出"VisionProLite"或日常佩戴型AR眼镜写在最后:Apple的AR眼镜时代正在到来从VisionPro的发布,到如今这项模块化智能眼镜专利的曝光,Apple正在逐步构建其在空间计算与穿戴设备领域的技术壁垒。未来,我们或许会看到一款更轻、更智能、更贴近日常使用的AppleAR眼镜,它将不再只是"头显",而是一个真正意义上的数字生活延伸终端。正如Apple一贯的风格:不是为了追赶趋势,而是为了定义趋势。
在智能显示眼镜领域,XReal一直走在行业前沿。近日,其全新升级的XRealOnePro智能显示眼镜与配套的XrealEye模组正式发布,标志着Xreal在轻量级AR眼镜领域迈出了关键一步。这两款产品不仅补全了XrealOne产品线的拼图,也让我们一窥这家公司在未来"空间计算"与"AI+AR"融合上的野心。XrealOnePro:更轻、更亮、更清晰的"未来显示器"XrealOnePro是XrealOne的升级版本,起售价为599美元(预购价),正式零售价为649美元。它带来了以下核心升级:更亮的Sony微OLED屏幕:亮度提升了100尼特,户外使用更清晰新型棱镜光学模组:替代传统的"鸟浴"光学,显著减少反光,提升佩戴舒适度更大的视场角(FoV):比XrealOne增加了7度可更换镜框设计:外观更时尚,适配更多场景在实际体验中,XrealOnePro的画面更加自然,边缘无畸变,亮度更柔和,尤其在强光环境下表现突出。搭配自动调光的电致变色膜,即使在阳光下也能清晰显示内容。XrealEye:从"显示器"到"空间设备"的关键一跃XrealEye是一个可插拔的摄像头模组,售价99美元,必须搭配XrealOne或OnePro使用。它带来了两个关键功能:6DoF空间追踪:实现类似MetaQuest3的自由移动追踪,让虚拟屏幕真正"固定"在空间中4K60fps视频录制与拍照功能:满足日常记录需求,画质优于Ray-BanMeta智能眼镜安装非常简单:只需取下眼镜鼻梁处的橡胶盖,将Eye插入即可。系统会自动识别并引导你完成固件更新。6DoF空间追踪:虚拟屏幕不再"漂浮"XrealOne系列默认支持3DoF(三自由度)追踪,即头部转动时虚拟屏幕随之移动。但如果你起身走动,屏幕也会"漂浮"走位。而XrealEye的加入,将追踪升级为6DoF(六自由度),即你可以在空间中自由走动,虚拟屏幕依然"钉"在原地。虽然目前仅依靠单摄像头进行追踪,存在跨房间移动时定位漂移的问题,但在日常办公、游戏、观影场景中,体验已足够惊艳。拍照与录像:不是主打功能,但足够实用XrealEye支持:4K@60fps视频录制1080p高清拍照虽然画质略逊于Meta的Ray-Ban智能眼镜,但得益于眼镜内置显示屏,你可以实时预览拍摄画面,并在录制后立即回放查看,这是其他智能眼镜难以实现的优势。不过,它需要通过USB-C与手机或PC连接才能使用,无法独立工作,因此作为"随身相机"的便携性略逊一筹。但另一方面,这种设计也意味着无需担心电池续航问题,适合长时间记录使用场景。未来展望:XrealEye是通往"ProjectAura"的钥匙XrealEye的真正意义,在于它为未来的AI+AR生态打下了基础。据Xreal官方透露,他们正在开发:手势识别功能多模态AI交互与AndroidXR系统深度整合这意味着,未来的Xreal眼镜将不只是"显示器",而是真正的"空间计算终端",甚至可能成为AI助手的视觉接口。结合即将推出的XrealProjectAura(预计2026年初发布),我们可以预见一个更加智能、更加沉浸的AR未来。使用场景实测:办公、娱乐、游戏全胜任XrealOnePro+XrealEye的组合,在以下场景中表现出色:移动办公:可作为随身"第二屏幕",在户外轻松处理文档、视频会议游戏与娱乐:配合SteamDeck、PC或支持DPoverUSB-C的设备,带来沉浸式大屏体验空间计算演示:6DoF让虚拟界面真正"固定"在空间中,适合做产品展示、远程协作即便不开启XrealEye,XrealOnePro本身也是一款非常优秀的"虚拟显示器"。但一旦开启Eye,它就完成了从"穿戴设备"到"空间设备"的进化。总结:目前最值得入手的AR显示组合虽然XrealOnePro+XrealEye并不适合所有人,尤其是那些追求"全天佩戴"或"独立使用"的用户,但对于以下人群来说,它是目前市场上最值得考虑的AR设备组合:移动办公者游戏玩家空间计算爱好者VR/AR开发者科技尝鲜用户它不仅拥有目前最清晰、最自然的显示效果,还通过XrealEye实现了6DoF空间追踪,在AR眼镜领域树立了新的标杆。随着未来AI与XR生态的完善,Xreal正在为AR设备的"主流化"铺平道路。
成立于2019年的智能眼镜初创公司BrilliantLabs宣布,其第三代智能眼镜将于2025年7月31日正式发布。这将是该公司继2023年Monocle和2024年Frame之后的又一力作,标志着其在消费级AR眼镜赛道上的持续进化。随着Meta、谷歌、小米、EssilorLuxottica等巨头纷纷布局AI眼镜与增强现实设备,BrilliantLabs正在以轻量、开放、AI驱动的产品策略,悄然构建自己的技术护城河。从Monocle到Frame:逐步进化的智能眼镜产品线📌Monocle(2023年)BrilliantLabs的第一款产品是Monocle,一款开发者套件,配备了一个单目抬头显示器(HUD),可夹在普通眼镜上使用。虽然外形略显"极客",但它是该公司探索轻量AR显示的起点。📌Frame(2024年)第二代产品Frame将Monocle的显示模块整合进一副更接近日常眼镜的框架中,重量控制在40克以内,外观轻薄,搭载一枚摄像头传感器,主打"AI个人助理体验"。Frame支持接入多个AI模型,如Perplexity、ChatGPT和Whisper,实现:实时语音/文字翻译眼前场景的语义理解快速联网搜索信息第三代眼镜即将发布:外形更现代,7月31日揭晓根据公司联合创始人兼CEOBobakTavangar的透露,BrilliantLabs的第三代智能眼镜将在2025年7月31日正式亮相。虽然目前关于新设备的官方信息有限,但在Reddit的AR子版块上,已有一张疑似新眼镜的图片流出:外形从此前的"复古圆形"风格,转向更现代、更接近主流眼镜的设计框架线条更流畅,整体更具"消费级产品感"Tavangar将在发布当天参与Reddit的Q&A直播,届时或将披露更多技术细节与功能亮点。智能眼镜赛道升温,BrilliantLabs能否突围?当前,智能眼镜市场正迎来新一轮爆发,多款重磅产品陆续登场:品牌产品特点Meta×OakleyHSTNSmartGlasses高端联名,主打时尚与音频交互XiaomiXiaomiAIGlasses国产首款AI眼镜,价格亲民Google×WarbyParker/GentleMonsterAndroidXR智能眼镜基于AndroidXR,搭载显示模块(据传)Meta下一代智能眼镜(传闻)或搭载显示+腕带控制器目前,BrilliantLabs是少数几家真正提供带显示功能的消费级智能眼镜厂商之一。但这一局面可能不会持续太久:Google已确认其AndroidXR眼镜将配备某种形式的显示模块Meta据传也在开发带显示+腕带输入的智能眼镜总结:轻量、开放、AI驱动,BrilliantLabs的差异化之路BrilliantLabs的产品路线图显示,它正以一种轻量级、开放平台、AI驱动的方式切入智能眼镜市场,避开与Meta、谷歌等巨头的正面硬刚,而是选择在开发者生态、价格、便携性上建立差异化优势。随着第三代眼镜的发布,这家公司是否能在AI眼镜热潮中赢得一席之地?我们拭目以待。
在最新一期《Nature》期刊中,Meta发布了一篇经过同行评审的论文,首次系统性地披露了其正在开发的sEMG手环技术,这项技术将成为其未来HUD眼镜与AR眼镜的主要交互方式。这篇题为《Agenericnon-invasiveneuromotorinterfaceforhuman-computerinteraction》的论文,详细描述了Meta自2019年收购CTRLLabs以来持续研发的非侵入式神经肌肉接口设备,即我们熟知的sEMG(表面肌电图)手环。从CTRLLabs到Meta:神经接口技术的延续CTRLLabs是一家由计算神经科学家ThomasReardon共同创立并领导的初创公司,于2019年被Meta收购。如今,Reardon仍领导着这一项目的技术研发。Meta的sEMG手环通过感应手腕肌肉的电信号,来捕捉手指的细微动作。这种技术被称为表面肌电图(sEMG),相比传统的手势识别摄像头,它具有以下优势:无需摄像头视线范围功耗极低可实现高精度的手指追踪这意味着用户无需抬手或说话,就能通过静默的手指动作与虚拟界面进行交互,例如点击、滑动、输入文字等。四种核心手势曝光,交互方式更自然论文中附带的演示视频展示了四种主要的sEMG手势控制方式:用食指在表面书写字符:系统可识别书写动作并将其转换为数字文本,实现无键盘输入。旋转手腕控制一维光标:通过手腕转动实现类似旋钮的精细控制。拇指沿食指侧面滑动:模拟滑动操作,用于菜单滚动或调节参数。拇指轻触/长按食指:模拟点击或长按动作,用于选择或确认操作。此外,论文还提到,Meta的sEMG技术已经具备跨用户通用性,无需为每个用户单独训练模型。Meta还向科学界公开了超过100小时的sEMG数据集,以推动全球无障碍交互技术的发展。从原型到产品:Ceres手环亮相MetaConnect2024虽然论文中展示的设备仍为研究原型,但其外观与2021年首次亮相的概念手环高度相似。在MetaConnect2024的公开演示中,Meta展示了一款外观更为成熟、接近量产的版本,代号为Ceres,作为其未来AR眼镜Orion的配套输入设备。其中,"拇指沿食指侧滑"这一手势,已被整合进MetaQuestSDK,命名为microgestures(微手势),并在Orion的演示中扮演了关键角色。手环将随Meta新款HUD眼镜上市,售价或达1400美元此前,多家媒体(包括TheVerge、TheInformation、FinancialTimes和Bloomberg的MarkGurman)均报道过一款代号为Hypernova、命名为MetaCeleste的轻量级HUD眼镜,预计将在今年晚些时候发布。Gurman表示,Meta计划将Ceres手环与Celeste一起打包发售,整体价格可能在1000至1400美元之间。同时,在Celeste的早期固件泄露中,研究人员发现了与Nature论文中展示的相同手势教程视频,甚至包括:拇指与食指捏合(pinch)水平或垂直"拉拽"动作这些都进一步验证了手环在消费级产品中的应用前景。MetaConnect2025即将召开,Celeste有望正式亮相根据官方日程,MetaConnect2025将于9月17日举行。外界普遍预期,Meta将在此次大会上正式发布MetaCelesteHUD眼镜,并开放预购,计划在10月发货,除非项目延期。早在今年4月,Gurman就曾透露,Meta内部已有员工在周末加班赶工,以确保Celeste按时发布。如今,距离发布仅剩不到两个月,我们很快就能知道,Meta是否能在消费级AR领域迈出这关键一步。总结:从论文到产品,Meta正在重新定义"人机交互"Meta的sEMG手环不仅是一项前沿科研成果,更是其未来AR生态系统的核心组成部分。通过这项技术,Meta正在尝试打造一种更自然、更沉浸、更私密的人机交互方式。随着Celeste和Ceres的推出,Meta有望在AR领域实现从"手势识别"到"神经接口"的跃迁,为下一代人机交互设定新标准。
在显示眼镜(DisplayGlasses)领域,XReal一直是全球市场的领头羊。不过,最近它的主要竞争对手Viture宣布一口气推出四款新型显示眼镜,包括一款拥有58°对角视场角、亮度高达1250尼特的旗舰型号。这场"显示眼镜大战"正在升温,而用户也将迎来更多选择。什么是"显示眼镜"?显示眼镜本质上是一种佩戴在头部的显示器设备,通过HDMI或DisplayPort(通常转为USB-C接口)接收视频输入,将内容投射到一个"虚拟大屏"上。例如,你可以将手机连接到眼镜上观看Netflix,也可以连接SteamDeck来玩游戏。早期的显示眼镜在大多数设备上都采用"头锁式"显示,即无论你如何转动头部,画面始终固定在视野中央。但如今,许多设备已支持3DoF(三自由度)追踪,意味着画面会随着你的头部旋转而保持固定位置,部分高端型号甚至可通过配件实现6DoF(六自由度)体验。目前市面上的显示眼镜普遍采用微OLED显示屏,通过曲面镜(birdbath)或平面棱镜(flat-prism)光学系统,将画面放大至约40°至60°的对角视场角。与AR眼镜常用的波导技术不同,这种光学结构更厚、更突出,佩戴时会遮挡大约80%的环境光线,因此不适合作为日常眼镜使用。Viture发力:四款新品齐发,挑战Xreal虽然Xreal是目前全球市场份额最高的显示眼镜品牌,但Viture作为第二名,也一直紧随其后。此前两者在功能上差异不大,但Viture最近在AWE2025上发布的新品,带来了不少亮点。Viture此次一口气推出了四款新眼镜,分别是:LumaLumaProLumaUltraTheBeast这四款产品在分辨率和亮度上都实现了对Xreal的超越:1200p分辨率vsXreal的1080p,亮度范围在1000–1250尼特之间,远超XrealOnePro的600–700尼特。在AWE2025上亲自体验后,我对其亮度表现印象深刻,画面更加鲜艳,也进一步印证了"亮度是头显体验中最被低估的参数之一"的观点。视野(对角线)解决亮度内置3DoF价格XrealOne50°1080p600尼特✅500美元XrealOnePro57°1080p700尼特✅600美元维图雷·卢马50°1200p1000尼特❌400美元VitureLumaPro52°1200p1000尼特❌500美元VitureLumaUltra52°1200p1250尼特❌600美元野兽58°1200p1250尼特✅550美元跟踪功能:各有侧重,体验分化尽管四款产品在显示性能上全面升级,但在跟踪功能的设计上却存在明显差异:Luma系列(Luma、LumaPro、LumaUltra)均未内置3DoF跟踪,这意味着如果你只是连接手机看Netflix,画面会是"头锁式"的。只有在使用VitureXR充电适配器并运行Viture的SpaceWalker应用时,才能实现3DoF显示。LumaPro配备了一颗中央彩色摄像头,可在SpaceWalker应用中实现基础的6DoF跟踪,类似于XrealEye,但仅限于Viture自家应用。LumaUltra是唯一一款在镜腿上配备了灰度鱼眼摄像头的型号,支持高质量的6DoF头部和手势追踪,但仅适用于Windows、Mac和ViturePro项圈式计算单元。TheBeast则是唯一一款内置3DoF的型号,同时配备中央摄像头支持SpaceWalker中的6DoF,但没有侧边鱼眼摄像头。内置3DoF中央彩色摄像机侧向跟踪摄像机XrealOne✅100美元❌XrealOnePro✅100美元❌维图雷·卢马❌❌❌VitureLumaPro❌✅❌VitureLumaUltra❌✅✅野兽✅✅❌发售时间与价格:覆盖多个价位段Viture的四款新品将分阶段上市,价格也覆盖了多个消费层级:Luma:9月发售,售价400美元LumaPro:现已发售,售价500美元LumaUltra:8月发售,售价600美元TheBeast:10月发售,售价550美元70°视场角原型机曝光:未来可期在AWE上,我还体验了Viture正在研发的一款视场角约为70°的原型机。此前我曾多次批评当前显示眼镜的视场角过小,认为"巨幕"营销有些名不副实。但这次体验让我感受到一个临界点的到来:70°的视场角确实带来了更强的沉浸感,也让我相信这类设备未来将在XR领域扮演更重要的角色。这一视场角也与Xreal最近透露的ProjectAura眼镜相匹配,后者计划于明年推出,配备Google的AndroidXR系统与外接计算单元。虽然Viture目前尚未公布AndroidXR相关计划,但其已有ViturePro项圈式计算单元。结合其技术路线,很难想象它没有在与Google接触。
2025年7月16日,AR光学模组厂商Lumus宣布与全球最大ODM厂商之一广达计算机(QuantaComputerInc.)扩大合作,共同推进基于反射式波导技术的光学引擎量产化进程。此举标志着AR眼镜从"实验室走向大众市场"的关键一步。据Lumus介绍,广达已为Lumus的波导技术部署了专用自动化产线,大幅提升了光学引擎的生产效率与良率。这不仅有助于降低制造成本,也为下一代消费级AR眼镜的大规模出货提供了坚实的供应链基础。破除误解:反射式波导也能实现规模化量产LumusCEOAriGrobman在声明中指出:"业界对几何(反射)波导的一个普遍误解是:它难以实现大规模量产。而我们与广达过去几年的合作,正是对这一误解的有力反驳。"通过持续在自动化生产、工艺优化与基础设施建设上的投入,Lumus表示他们已建立起一条清晰、可扩展的量产路径。目前,Lumus波导模组出货量已超过55,000片,其中大部分由广达等制造伙伴在过去五年内完成。值得一提的是,Lumus采用统一工艺流程制造不同视场角(FoV)配置的波导模组,这种设计不仅降低了OEM厂商的集成复杂度,也进一步控制了成本。从"早期采用"走向"大众普及":供应链先行LumusCEOGrobman强调:"我们的目标始终是将顶级光学性能与可量产性结合。此次与广达的合作扩展,再次印证了我们对这一方向的坚持。"广达副总裁兼总裁C.C.Leung也表示:"我们非常自豪能进一步深化与Lumus的合作,共同推动消费级AR创新的下一阶段。我们在自动化与专用光学引擎产线上的投资,体现了我们对反射式波导规模化能力的信心,也彰显了Lumus技术的市场潜力。"双方计划构建一个高效率、可扩展、稳定量产的制造体系,为AR从"早期尝鲜"迈向"大众普及"提供支撑。
2025年7月15日,专注于MEMS(微机电系统)激光照明解决方案的MaradinLtd.宣布推出其全新的XR激光扫描(LBS)显示平台,专为增强现实(AR)和混合现实(MR)应用设计。该技术在上月于美国圣何塞举行的增强现实世界博览会(AWE)上首次亮相,展示了其在轻量化与高性能之间的平衡能力。据Maradin介绍,该平台可提供50度视场角(FoV)、720p分辨率以及全彩投影,整体模块体积小于1.4立方厘米,在当前AR/VR显示技术中属于非常紧凑的设计。支持波导与视网膜直投架构,兼顾轻量化与性能该平台基于Maradin自主研发的MEMS技术打造,支持动态视点追踪(foveateddisplay)和可调节视场角(changeableFoV),为设备制造商提供了更高的定制灵活性。该LBS模块专为轻量级智能眼镜设计,主打"全天佩戴"的舒适性,通过低功耗设计和微型化体积,让AR眼镜不再受限于笨重的结构和续航瓶颈。Maradin表示,其专利的激光调制方案,结合MEMS反射镜与控制器,不仅实现了紧凑结构,还显著降低了功耗。这项技术使得AR眼镜在适配不同头型和佩戴需求时,无需牺牲分辨率或眼动追踪区域(eye-box)的表现。面向OEM厂商:一个平台,多种市场适配MaradinCEOMatanNaftali在声明中表示:"我们的新XR平台为OEM厂商提供了无限可能,使他们能够通过前所未有的色彩表现与分辨率,将品牌价值延伸至新的用户群体。这一平台不仅是波导型智能眼镜的理想选择,也能支持视网膜直投等前沿架构。LBS技术将成为OEM厂商拓展多市场、多风格产品的关键转折点。"这意味着,同一套LBS平台可被用于消费级时尚眼镜、企业级工业AR设备等多个产品线,大幅降低研发与生产成本。
2025年7月14日--高精度眼动追踪技术公司Ganzin推出"Gaze2AI"参考设计,开启3D空间注视追踪新时代全球领先的可穿戴眼动追踪解决方案提供商GanzinTechnology(乾瞻科技)近日宣布推出其最新产品--Gaze2AI参考设计方案,该方案支持高精度的三维空间注视追踪。该产品于上月在AWEUSA2025(美国增强现实博览会)上首次亮相。Gaze2AI基于Ganzin的AURORAIIS硬件平台,并搭载其自主研发的Aurora-II眼动追踪算法,旨在实现人类与AI系统之间以注视为核心的全新交互方式。"正如二维鼠标改变了我们与计算机的交互方式,Ganzin的三维注视追踪技术将重新定义人与人工智能的互动体验。它是基于注意力机制的AI智能体服务背后的关键技术。"--GanzinTechnologyCEOChienShao-Yi博士Gaze2AI:打造"3D空间鼠标",推动注意力驱动计算据Ganzin表示,Gaze2AI参考设计可以在三个维度上追踪用户的视线方向,包括水平、垂直和深度信息。系统通过解析这些空间数据,实现在多个AI平台上的实时交互,例如:GoogleGeminiOpenAIChatGPT通义千问QwanMicrosoftCopilot这一技术被称为"3D空间鼠标",为无需手动操作、具备上下文感知能力的AI应用奠定了基础,未来有望广泛应用于智能眼镜、虚拟助手、教育、医疗等多个领域。GanzinGaze2AI系统的核心硬件组成Gaze2AI的核心是AURORAIIS,这是一款基于神经处理单元(NPU)的眼动追踪模块,仅需以下微型组件即可运行:1个神经处理单元NPU(尺寸:2.3x5.6mm)2个紧凑型红外眼动传感器(1.6x1.6x2.3mm)2个红外LED发射器(1x0.5x0.45mm)整套系统的总重量不到1克,功耗低于100毫瓦(mW),能够在不增加主机设备负担的前提下,直接输出实时注视数据。Ganzin表示,这种超低功耗、高性能的设计非常适合集成到AR智能眼镜、VR头显以及移动设备中。GanzinSOL眼镜+生成式AI:现场演示展示未来交互可能在AWE展会上,Ganzin展示了一款名为SOL-to-GenAI的原型系统,其工作流程如下:使用SOL眼动追踪眼镜捕捉用户的注视点与视觉场景;通过USB-C将数据传输至智能手机,并运行Aurora-II算法;数据随后被无线传输至PC,由生成式AI实时反馈结果。这套系统所使用的SOL眼镜包含:两个面向眼睛的红外摄像头和照明器,用于精准捕捉眼球运动;一个面向外部的1.3Kx1.2K彩色摄像头,用于采集用户视野中的视觉环境信息。开发者友好:可定制化设计,适配多行业应用场景针对开发者,Ganzin提供了一套完整的定制化开发套件(DesignKit),其中包含可扩展的SOL眼动追踪眼镜,适用于以下行业应用:游戏医疗健康教育培训国防军事智能制造开发者还可以根据需要调整摄像头布局和眼镜外形,以满足不同工业设计的需求。
总部位于瑞士的光场显示技术初创公司CREAL近日宣布完成890万美元的股权融资,该公司表示这笔资金将加速其用于AR眼镜的光场显示模块的小型化进程。本轮融资由德国光学与光电系统巨头ZEISS(蔡司)领投,其他新老投资者也参与了本轮投资,其中包括来自瑞银(UBS)私人投资者网络的部分成员。截至目前,CREAL的累计融资总额已达3200万美元。此前的投资方包括SwisscomVentures、VerveVentures和DAACapitalPartners。在一份官方声明中,CREAL表示这笔资金将帮助公司加快实现"通过推进专有光场显示技术,提供自然、舒适且健康的数字视觉体验"的使命。光场显示:打造更自然的AR视觉体验光场显示(LightFieldDisplay)是一种能够模拟真实世界光线进入人眼方式的技术。当集成到AR眼镜中时,它可以:实现更逼真的深度感知;在不同距离上提供准确的聚焦提示;显著减少长时间佩戴带来的眼部疲劳。目前市面上几乎所有的AR和VR头显都在使用一些"技巧"来欺骗我们的眼睛,让它们误以为看到的是三维场景。大多数设备依赖于基础的立体视觉(StereoVision)--即通过左右图像制造出一种深度感,但本质上这些画面仍被投影在一个固定焦距的平面上。这些设备虽然支持集合(Vergence)(双眼视线融合为一),却不支持调节(Accommodation)(眼睛根据观察距离自动对焦)。而这两个功能在现实中是协同工作的,一旦脱节,就会产生所谓的"集合-调节冲突(vergence-accommodationconflict)"。一些头显尝试通过"可变焦(Varifocal)"方案来缓解这个问题,例如MagicLeapOne和Meta早期的一些VR原型设备,会基于眼动追踪动态调整焦距,从而支持多个焦点平面。但即便如此,这些方案依然存在一定的局限性,因为它们并未真正呈现光场。CREAL的愿景:打造健康、自然、沉浸的AR体验CREAL首席执行官兼联合创始人TomasSluka表示:"随着人工智能重塑我们的工作和创作方式,AR正在成为这个新时代的核心交互界面。但如果我们要整天佩戴AR眼镜,它们必须做到健康、舒适、自然。因此我们专注于开发能以真实世界深度呈现数字影像的AR眼镜,完全契合人类眼睛的自然对焦机制。这是实现真正沉浸式空间计算的关键基石之一。"这笔新融资将帮助这家总部位于瑞士Écublens的公司继续研发其AR光场显示模块,并计划将其集成到轻便时尚的AR眼镜中。初期目标市场为企业级用户,未来将逐步扩展至消费市场。与蔡司合作拓展医疗领域应用此外,CREAL还将继续推进一项与ZEISS在2024年底签署的授权协议。该协议旨在将CREAL的光场技术应用于蔡司的下一代诊断与治疗设备中的视觉护理平台。这项合作标志着光场技术不仅在消费级AR设备中具有巨大潜力,在高端医疗视觉解决方案中也将发挥重要作用。
近日,一组据称是下一代Ray-BanMeta智能眼镜的产品渲染图在中国社交媒体上泄露,展示了两款不同设计:一款为太阳镜款式,另一款则为日常佩戴的光学镜框款式。发布这组图片的是一个自称"XRResearchInstitute(XR研究所)"的账号。他们声称这两张图片来自真实的产品渲染图,并表示其中太阳镜款式代号为Aperol,而光学镜框款式代号为Bellini。这两个代号与此前《TheInformation》在2024年5月的一篇报道相吻合。该报道称,Meta正在开发两款新眼镜,分别代号为Aperol和Bellini。不过XRResearchInstitute表示这两款产品将在今年发布,而TheInformation则指出它们计划于2026年推出。设计变化:分体式设计将成新方向?如果这些信息属实,那么这款新眼镜将会采用一种全新的设计理念--即太阳镜和光学镜框分别独立设计,而不是像目前一代那样提供统一外观,并通过更换清透镜片、变色镜片或偏光镜片来适应不同场景。不过也有人对XRResearchInstitute的说法提出质疑。特别是被称作Bellini的那款设计,看起来与现款Headliner款式几乎一模一样,因此有观点认为XRResearchInstitute可能误读了设计图。更强续航+AI功能升级XRResearchInstitute还透露,新一代Ray-BanMeta智能眼镜将拥有显著提升的电池续航时间,以及更强大的AI功能,包括:实时物体识别场景理解能力这也与TheInformation的报道内容一致。后者曾提到,Meta正在开发一套被称为"超级感知(supersensing)"的功能模块,作为当前Ray-BanMeta眼镜中"LiveAI"功能的升级版。目前的LiveAI功能可以在约30分钟内运行,而下一代版本将支持长时间后台运行,甚至可以达到"数小时"。例如,当你忘记带钥匙出门时,MetaAI可以提醒你;或者在下班路上提醒你顺路买晚餐所需的食材。此外,Meta还正在探索一项人脸识别功能,可以根据看到的人自动提醒你对方的名字,从而帮助用户在社交场合中更轻松地应对。与MetaCelesteHUD智能眼镜无关值得注意的是,Aperol和Bellini是Ray-Ban品牌下的产品,价格预计在300至500美元之间,而并非传闻中将于10月发布的搭载HUD(抬头显示器)的高端智能眼镜MetaCeleste(代号Hypernova)。后者定位更高,预计将售价超过1000美元,并主打增强现实(AR)视觉体验,与Aperol和Bellini形成产品线上的明显区分。
VR52网成立于2015年,平台提供VR头显、AR眼镜、配件外设、厂商、测评、行业资讯、游戏与应用、展会活动等。