阿里巴巴旗下夸克智能设备品牌正式在天猫旗舰店推出首款自研AI眼镜。据天猫实时销售榜单显示,在双11大促期间,该产品上线仅七小时,便跻身智能眼镜品类销量榜TOP2,迅速引发市场关注。目前已有大量用户在社交平台和粉丝群分享购买订单截图。其中一张订单信息显示,最终实付价格为3,329元,交货时间预计在12月8日前。多位用户反馈价格一致,低于此前传闻的88VIP专属优惠价3,699元。88VIP叠加优惠,首发价格更具吸引力天猫官方旗舰店客服证实,在双11促销期间,88VIP会员可在平台补贴基础上,额外领取10%折扣优惠券,使最终到手价低至3,329元。该优惠券有效期至10月24日24:00,后续是否延续尚不确定。双旗舰芯片+阿里生态深度整合夸克AI眼镜在硬件上采用双旗舰配置:搭载高通AR1芯片与BestechnicBES2800芯片,配备双光学引擎,并支持双目显示距离调节。针对近视用户,提供个性化定制镜片服务。在功能层面,除支持通话、音乐、提词器、拍照问答等基础能力外,产品深度融入阿里巴巴生态:集成高德地图的"近眼导航"、支付宝"一眼付"安全支付,以及淘宝"拍立淘"式的"找相似"视觉搜索功能,实现从信息获取到消费决策的闭环体验。此次发布标志着阿里在AI硬件赛道的进一步布局,也反映出消费者对具备实用场景与生态协同能力的智能眼镜接受度正在提升。
Rokid与京东科技宣布达成合作,推出全球首个基于智能眼镜的购物应用平台,标志着AR、人工智能与零售场景的深度融合迈出关键一步。该平台将搭载京东科技的购物AI系统"JoyGlance",并首发于Rokid智能眼镜,旨在将用户的视觉体验直接转化为购买行为。三步完成购物:从"看见"到"买下"JoyGlance的核心功能在于,用户只需通过智能眼镜摄像头注视现实中的商品,系统即可自动识别物品,并在线匹配相同商品信息,一键加入购物车。整个购物流程被简化为三个步骤:视觉识别、加入购物车、语音支付。相比传统移动端购物需经历解锁手机、打开应用、搜索、比价、下单、支付等繁琐环节,新体验实现了显著提效。该功能计划于11月上线,初期支持商品识别与加购。完整的下单与支付功能预计在次年1月全面开放,届时将实现从发现到成交的全流程闭环。物理世界即购物界面此次合作不仅优化了购物动线,更在重新定义电商入口。通过集成先进的AR视觉识别与AI交互技术,Rokid与京东科技正在构建一种新范式:物理世界本身成为购物界面。JoyGlance扮演着个性化的AI购物助手角色,能够理解用户意图、智能匹配商品,并通过多层生物识别认证保障交易安全。这一创新缩短了现实与数字世界的距离,使消费者得以以更自然、直观的方式与商品互动。同时,它也确立了Rokid与京东科技在下一代零售体验中的领先地位--智能眼镜不再只是信息窗口,更成为通往商业世界的入口,悄然重塑人们习以为常的购物方式。
由多位前Oculus核心成员创立的AI与智能眼镜初创公司Sesame,近日宣布完成2.5亿美元B轮融资。本轮融资由SparkCapital和SequoiaCapital(红杉资本)领投,使公司累计融资总额达到3.076亿美元。这笔资金将主要用于加速其语音驱动AI助手的开发,推进"环境计算"(ambientcomputing)愿景的落地。前Oculus"梦之队"再集结,瞄准下一代人机交互Sesame自今年初结束保密状态以来,其创始团队背景便备受关注。公司由Oculus联合创始人兼前CEOBrendanIribe、前Oculus硬件架构师RyanBrown,以及AR初创企业Ubiquity6前CTOAnkitKumar共同创立。今年6月,另一位Oculus联合创始人NateMitchell也正式加入,出任首席产品官,并表示其目标是"让计算机真正活起来"。这支团队的集结,被视为对智能穿戴设备与自然交互方式的又一次重要探索。不同于当前主流的头显或语音助手,Sesame的愿景是构建一个"始终在线、情境感知"的环境界面,让AI真正融入日常生活,而非打断它。打造时尚化AI眼镜,让对话成为交互核心根据红杉资本的公开评价,Sesame正在开发一款"轻量化、时尚化、全天候佩戴"的AI智能眼镜。这款设备并非以显示增强现实内容为核心,而是将重点放在语音交互与情境理解上,目标是成为"完美的AI对话伙伴"。其AI助手被定位为能够理解用户所处环境、习惯与需求的智能体,通过自然语言实现无缝交互。目前,Sesame已推出iOS应用,开放其AI助手Miles和Maya的测试申请,并提供公开预览功能,用户可通过语音"拨打"与聊天机器人对话,初步体验其语音交互能力。从语音入口到可穿戴终端,构建AI原生硬件闭环Sesame的路径显示出清晰的战略意图:先通过移动端应用验证AI对话能力,积累数据与用户反馈,最终将其集成到自主设计的轻量化眼镜硬件中,实现"AI原生"的可穿戴设备闭环。这种"软件先行、硬件跟进"的模式,既降低了初期用户门槛,也为最终产品形态提供了迭代基础。在智能眼镜历经多轮起落的今天,Sesame能否凭借前Oculus团队的技术积累与红杉等顶级资本的支持,真正实现"让计算机隐形"的愿景,将成为未来几年人机交互演进的关键观察窗口。
亚马逊(Amazon)于今日正式确认其正在开发并测试专为配送司机设计的HUD智能眼镜。这一项目标志着科技巨头在"最后一公里"物流自动化与效率优化上的又一次重大投入。设计与功能:绿色单色显示,解放双手的配送助手从亚马逊公开的演示视频和描述来看,这款智能眼镜采用固定式绿色单色(monochrome)显示屏,确保在各种光照条件下都能清晰读取信息。眼镜支持处方镜片和光致变色镜片(在阳光下自动变暗),以适应不同视力需求和户外环境。核心功能依托于"先进的计算机视觉处理与人工智能",旨在让司机在无需掏出手机或扫描设备的情况下完成关键任务:自动扫描包裹:通过视觉识别快速定位车内对应包裹;步行导航:提供从停车点到客户门口的逐向导航;自动获取签收证明:在交付完成后,眼镜可自动记录并上传交付证据。亚马逊解释道:"当司机安全停靠在配送点时,眼镜会自动激活,配送助手(DA)的视野中将立即显示配送信息--从在车内定位正确包裹,到导航至对应住户门口。"硬件配置:外挂控制器与可更换电池眼镜本身并非独立设备,而是与一个佩戴在配送马甲上的小型控制器协同工作。该控制器配备类似按钮旋钮的输入装置,便于司机在戴手套的情况下操作。更重要的是,它内置可更换电池,支持"全天候使用",确保长时间配送任务不断电。测试进展与未来愿景亚马逊透露,已将"早期版本"的眼镜交由"数百名"配送司机进行实地测试。尽管尚未公布大规模部署的具体时间表,但公司对未来的功能升级充满期待:"我们预计未来版本的眼镜将实现实时缺陷检测--例如,当司机误将包裹放在与地址不符的门口时,眼镜会立即提醒;还能检测低光照等危险环境并自动调整镜片,或提示'院内有宠物'等安全信息。"量产计划:2026年中启动,首期10万台据TheInformation报道,亚马逊计划于2026年年中启动智能眼镜的大规模生产,初始生产目标约为10万台。这一数字表明,亚马逊正从测试阶段迈向规模化部署的准备。战略意义:从"智能物流"到"增强现实工作流"亚马逊的HUD眼镜不仅是硬件创新,更是其构建"增强现实工作流"的关键一环。通过将关键信息直接投射到司机视野中,大幅减少操作中断,提升配送速度与准确性。同时,AI驱动的实时环境感知功能,有望显著降低配送错误率和安全风险。随着AR技术在工业、物流领域的成熟,亚马逊此举可能为其他企业树立标杆,推动"智能可穿戴设备"在一线作业人员中的普及。
在MetaConnect2025大会发布仅一个月后,Meta与EssilorLuxottica联合打造的旗舰级智能眼镜OakleyMetaVanguard已正式发货,并登陆美国、加拿大、英国、德国、法国、澳大利亚等十余个国家的线下门店与官方渠道。这款产品标志着两家公司在智能穿戴设备上对极限运动与户外场景的进一步聚焦。作为Oakley品牌在Meta智能眼镜产品线中的最新力作,Vanguard采用标志性的Sphaera流线型设计,配备居中布局的摄像头与122度超大视场角(FOV),相较Ray-BanMeta系列及此前的OakleyMetaHSTN的100度FOV提升显著。这一改进旨在优化第一人称视角视频的构图中心感,尤其适合骑行、滑雪、跑步等动态场景下的内容记录。更强防护、更稳画面:为极限环境而生Vanguard是首款具备IP67级防尘防水性能的Meta智能眼镜,能够应对暴雨、沙尘、汗水等复杂户外环境。其电池在低温下的表现也经过特别优化,有效缓解了前代产品在寒冷气候中续航骤降的问题。视频录制方面,Vanguard支持多种模式:1080p@30fps(最长5分钟)1080p@60fps(最长3分钟)3K@30fps(最长3分钟)720p@120fps慢动作(最长1分钟)超长延时摄影(Hyperlapse,最长30分钟,需通过MetaAI触发)电子图像防抖(EIS)支持自动与手动调节(低/中/高),用户可根据运动强度在画质稳定性与视野范围之间进行权衡。音频、续航与交互体验全面升级Meta表示,Vanguard的扬声器输出功率比现有智能眼镜高出6分贝,显著提升在强风环境下的音频可听性,确保用户在高速运动中仍能清晰听到通话、音乐或语音提示。续航方面,官方宣称单次充电可支持约9小时使用,优于Ray-BanMetaGen2和OakleyMetaHSTN的8小时。尽管整机重量达66克,略重于前代,但得益于更均衡的重量分布,实际佩戴感反而更为舒适。OakleyMetaVanguard的4种颜色。功能延续Meta智能生态,支持MetaAI视觉交互与现有Meta智能眼镜一致,Vanguard采用无屏幕设计,集成摄像头、麦克风与开放式扬声器。核心功能包括:拍摄照片与视频接听电话、播放音频内容通过WhatsApp与Messenger分享第一视角画面实时语音翻译扫描QR码查询MetaAI(基于大语言模型的视觉助手,可"看见"摄像头画面并提供信息反馈)推送重要通知朗读所有镜片均搭载Oakley引以为傲的PRIZM显色技术,可增强色彩饱和度与对比度,提升视觉清晰度。目前提供四种配色组合:黑框+24K镜片黑框+Road镜片白框+Sapphire镜片白框+黑镜片售价统一为500美元,未来镜片将支持单独销售,方便用户更换风格。Meta与EssilorLuxottica计划于今年晚些时候将该产品扩展至墨西哥、印度、巴西和阿联酋市场。
2025年10月,TCL旗下AR品牌RayNeo推出的X3Pro增强现实眼镜正式入选《时代》(TIME)杂志"2025年度最佳发明"(BestInventionsof2025)榜单。该榜单汇聚了苹果、华为、比亚迪、DeepSeek等全球科技巨头的突破性成果,X3Pro作为全球首款量产全彩蚀刻光波导AR眼镜,成为唯一上榜的AR可穿戴设备,标志着中国企业在空间计算硬件领域的重大突破。技术领先:Micro-LED引擎与蚀刻光波导重塑AR显示TCLRayNeoX3Pro的核心优势在于其行业领先的光学系统:搭载目前全球体积最小、可量产的全彩Micro-LED光机,实现高亮度、低功耗与微型化;采用RayNeo自研的蚀刻光波导技术,在3D空间显示、亮度表现与色彩还原度上均处于业界领先地位,显著提升虚拟图像的清晰度与沉浸感。这一组合使X3Pro在轻量化设计的同时,提供媲美高端AR头显的视觉体验,解决了长期困扰消费级AR产品的"显示效果"与"佩戴舒适性"难以兼顾的难题。创新交互:LiveAI与AR虚拟机开启智能新范式X3Pro不仅在硬件上突破,更在软件生态上开创先河:首创视觉化LiveAI交互,用户可通过手势、眼动与语音与AI进行实时互动,AI助手可直接在视野中呈现信息、执行任务;全球首发AR眼镜专用Android应用容器--"RayNeoAR虚拟机",首次实现将大屏级Android应用无缝迁移至AR设备,打通智能手机与个人智能终端之间的生态壁垒。市场认可:从IFA到TIME,全球份额登顶此前,X3Pro已荣获2025年IFA创新奖,此次再获《时代》杂志权威认可,进一步巩固其作为顶级全球AR产品的地位。市场表现同样亮眼:根据最新数据,TCLRayNeo在2025年第二季度全球AR眼镜市场占有率达39%,首次跃居全球第一,实现中国品牌在该领域的历史性突破。这一系列成就不仅彰显了"中国智造"在前沿科技领域的创新能力,也预示着"中国制造的AR"正加速融入全球用户的日常生活,推动空间计算技术走向大众普及。
2025年10月16日,INMO正式推出新一代AI智能眼镜INMOGO3,同步发布"未来科技美学"(FutureTechAesthetic)设计理念,旨在从形态、功能与用户体验三个维度,重新定义消费级智能眼镜的产品范式。此次发布不仅聚焦硬件创新,更标志着INMO从单一设备厂商向全球性AI+AR生态系统平台的战略跃迁。同日,INMO正式上线INMOWorld--一个开放的全球AI+AR生态系统平台。该平台已与蚂蚁集团(ANTGROUP)、腾讯应用宝、Z.ai等行业头部企业达成战略合作,致力于构建原生AR内容生态,推动智能眼镜从"配件"向"下一代计算终端"演进。联合蚂蚁集团打造轻量化支付系统,推动眼镜端交易闭环在AI生态系统布局中,INMO与蚂蚁集团的合作尤为关键。双方将共同攻克低功耗实时操作系统(RTOS)的技术瓶颈,开发轻量级、高安全性的支付解决方案,未来用户将可通过INMO智能眼镜直接完成支付操作。该方案还将集成蚂蚁的gPass框架,实现数字身份、票证与AI服务的无缝流转,为智能眼镜注入更深层的服务能力。首发接入腾讯应用宝,设立2000万基金扶持原生应用开发在内容生态建设方面,INMO成为首个接入腾讯应用宝的智能眼镜品牌。通过开放SDK,腾讯开发者将能为INMO平台开发原生AI应用。为加速内容供给,INMO联合腾讯设立2000万元专项基金,用于支持开发者创作高质量的AI+AR应用,直面行业长期存在的"应用荒"痛点。推出"对话精灵"AI助手,实现从被动响应到主动智能的跨越INMO与Z.ai联合发布全新AI助手--"对话精灵"(DialogueGenie),基于Z.ai的GLM大模型驱动。该助手不仅支持实时信息检索与智能应答,更具备上下文理解能力,可在会议、面试、销售等复杂场景中预判用户需求,主动推送相关数据与建议,实现从"被动响应"到"主动智能"的范式升级。拓展AI服务场景,布局线下体验网络围绕用户高频需求,INMO计划联合生态伙伴拓展AI购物助手、AI旅行导览、AI比价等实用服务,未来将通过INMOStore统一提供。与此同时,INMO宣布正式进军线下零售,携手LOHO等合作伙伴,将产品体验网点扩展至超过2000家门店,加速消费者认知建立与市场渗透。
本周,智能眼镜与眼动追踪解决方案提供商Viewpointsystem正式推出VPSNext--其第三代眼动追踪智能眼镜系统。该产品专为专业及工业领域设计,面向制造、交通、国防、体育等对效率与安全性要求极高的行业,旨在通过第一视角视频流与实时眼动数据分析,提升远程协作、培训与操作效率。模块化设计与即用型体验VPSNext采用可扩展的模块化架构,起始重量仅为38克,提供多种配置选项,包括符合安全认证的防护眼镜型号以及无框无镜片的轻量版本,适配不同用户脸型与工作场景。设备通过镜架上的单一多功能按钮即可完成操作,强调"开箱即用"的便捷性。配套的95克轻量计算单元"LiteUnit"通过线缆连接眼镜,集成Wi-Fi、蜂窝数据与蓝牙功能,可置于口袋或固定于头盔、手臂、腰带等位置,兼顾移动性与稳定性。实时协作与眼动洞察的融合VPSNext平台支持从佩戴者视角进行高清视频直播,内容可实时传输至智能手机、平板或笔记本电脑,便于远程专家提供指导与支持。系统不仅支持音视频双向通话,还允许远程方在视频流中直接绘制标注,实现精准的视觉引导。其核心优势在于集成的眼动追踪能力:系统采用专利双摄像头方案,以120fps高频率捕捉用户视线,可生成热力图与注视点数据,并支持实时显示佩戴者的视觉焦点。这些数据可被自动分析,用于评估注意力分布、操作流程合理性及培训效果。所有数据传输均经过加密处理,且支持本地存储模式,确保企业对敏感信息的完全控制,满足工业场景下的安全合规要求。已落地的商业价值:多家巨头验证ROIViewpointsystem强调,VPSNext已在多个行业实现可量化的投资回报。包括丰田(Toyota)、电装(Denso)和德国铁路(DeutscheBahn)在内的企业已部署该技术,具体案例包括:工业领域:奥地利联邦铁路(ÖBB)在调车作业中使用VPS眼镜后,未经授权的信号闯入事件减少了44%。此外,该技术还用于60个站点的车厢检查培训,提升标准化操作水平。国防应用:奥地利武装部队、加拿大军方及其他北约成员国军队正利用该系统训练士兵的注意力与态势感知能力。制造业:某制造客户通过部署VPS眼镜,实现生产线产出提升18%;一家国际啤酒集团在应对生产中断与设备故障时,单次事件节省成本约4万美元。体育分析:一家"欧洲顶级足球俱乐部"正使用VPS眼镜分析球员在战术情境下的视觉行为,优化决策训练。技术规格与定价VPSNext配备前置摄像头,支持HD+视频录制与4K拍照,拥有112°宽广视场角。眼动追踪系统运行于120fps高刷新率,电池续航约3小时,具备IP54级防尘防水性能,并提供安全认证镜片选项。基础售价为5,040美元,具体价格根据软件功能包配置浮动。
如果你计划将MetaRay-BanDisplay作为日常佩戴的处方眼镜,以下是关于其支持范围、定制流程及使用体验的全面解析。什么是MetaRay-BanDisplay?MetaRay-BanDisplay在普通智能眼镜功能基础上,新增了一块集成于右镜片的微型单目光学显示系统(HUD,抬头显示器)。用户可通过佩戴MetaNeuralBand(神经腕带)进行交互--该腕带利用表面肌电图(sEMG)技术,感知手腕肌肉活动以识别手指手势,实现无需触碰眼镜的操控。核心显示参数:视场角:约20度(对角线)亮度:最高5000尼特分辨率:600×600,42像素/度(高于AppleVisionPro)光泄漏:仅2%,旁人几乎无法察觉显示内容主要功能包括:MetaAI视觉助手:提供带图文的分步导航消息与视频通话:支持WhatsApp、Messenger、Instagram拍照/录像预览与缩放行人导航:在28个城市提供迷你地图实时字幕与翻译:面向对话对象音乐播放控制:支持切歌、快进2025年12月更新:通过手指在桌面滑动输入文字重量与设计:重量:69克(普通版为50克,非智能款为45克)设计:镜框与镜腿更厚,以容纳显示模组与电池Meta官方宣称日常使用续航约6小时,实际表现有待评测验证。处方支持:定制化、高成本、无售后更换与普通Ray-BanMeta智能眼镜不同,MetaRay-BanDisplay的处方支持无法通过后期更换镜片实现。原因在于其右镜片内嵌了精密且昂贵的光学波导(waveguide)结构,用于投射HUD图像,因此不能像普通镜片那样随意拆卸。如何获得处方版?制造阶段定制:处方镜片在生产时直接与显示镜片bonding(粘合),形成一体化结构。仅支持单焦点镜片:采用聚碳酸酯材质,带有"高级防反射涂层"。变色功能:支持从透明到灰色的Transitions变色技术。支持的视力问题范围:近视(Myopia):-4.0D至0远视(Hyperopia):+4.0D至0散光(Astigmatism):最高±4.0D柱镜(CYL)注意:总屈光度需在-4D至+4D范围内。费用与交付周期:处方定制费:200美元总价:基础款799美元+腕带199美元+处方费200美元=总计1198美元交付时间:下单后需5至8周,因镜片为定制生产购买流程:必须预约线下体验目前,购买MetaRay-BanDisplay必须预约线下零售商进行演示。演示环节:可携带处方信息,店员会插入临时演示镜片,让你体验HUD显示效果。注意:这些演示镜片不对外销售,仅用于体验,可能影响显示质量或增加厚度。演示后若决定购买,Meta将根据你的处方定制并发货。总结:为科技体验付出的代价项目普通Ray-BanMetaMetaRay-BanDisplay处方支持官方/第三方,可后期更换($25–$100)仅制造时定制,不可后期更换(+$200)镜片更换简单弹出更换不可更换,一体化bonding重量50克69克交互方式触控、语音MetaNeuralBand(sEMG手势)显示功能无单目HUD,42PPD,5000尼特MetaRay-BanDisplay为追求前沿科技体验的用户提供了前所未有的AR交互方式,但将其作为日常处方眼镜使用,意味着你必须接受高昂的定制成本、漫长的等待周期,以及永久性的一体化设计--一旦你的视力变化,可能需要重新购买整副眼镜。
国产AR品牌RayNeo宣布,其最新智能眼镜RayNeoX3Pro将于2025年内正式登陆全球市场。这款产品目前已在中国市场发售,接下来将启动国际扩张计划,标志着中国消费级AR硬件迈出关键一步。作为RayNeo的旗舰型号,X3Pro不仅在光学显示上追求极致,更在AI交互与空间感知能力上全面升级,试图在Meta、Apple、XReal等巨头夹击下,开辟一条差异化路线。双目全彩MicroLED,亮度高达6000尼特RayNeoX3Pro搭载双目全彩显示系统,实现双眼独立的AR画面呈现,显著提升沉浸感与视觉平衡性。其核心采用MicroLED导波光路技术,峰值亮度可达6000尼特--这一数值远超当前主流AR设备,意味着在户外强光环境下依然能清晰显示虚拟内容。高亮度+轻量化设计的结合,使X3Pro在通勤、旅行、户外办公等真实场景中具备更强实用性,直指"全天候可用"的消费级AR目标。搭载GoogleGemini,AI能力成核心卖点真正让X3Pro脱颖而出的,是其深度集成的AI能力。该设备搭载GoogleGeminiAI模型,支持多项智能功能:实时语音翻译:面对面交流时可实现跨语言字幕叠加;文本摘要:快速提取网页、文档关键信息;空间导航:结合AR叠加层,提供室内外步行指引。这标志着AR眼镜正从"显示终端"向"AI代理入口"演进。借助Gemini的多模态理解能力,X3Pro能更自然地理解用户所见所言,实现"所见即所得"的交互体验。6DoF加持,支持手势识别与AR捕捉硬件层面,X3Pro还配备了6DoF(六自由度)空间追踪系统,可精确捕捉设备在三维空间中的位置与姿态变化。这一能力为以下功能提供支撑:场景识别:自动识别环境类型(如街道、室内、商店);手势操控:无需手柄,通过手势完成选择、拖拽等操作;AR内容捕捉:将现实场景与虚拟标注结合,一键保存或分享。6DoF的加入,意味着X3Pro已超越"信息提示眼镜"的范畴,具备了构建空间计算平台的基础能力。随着2025年全球发售临近,RayNeoX3Pro或将面临本地化适配、生态建设与品牌认知等多重挑战。但其在显示、AI与交互上的综合表现,无疑为全球消费者提供了一个值得关注的中国AR选项。
在今日的MetaConnect2025大会上,Meta正式推出Ray-BanMetaGen2智能眼镜,并已开放预购。作为初代无屏智能眼镜的迭代产品,Gen2在关键性能上全面对标今年早些时候发布的OakleyMetaHSTN,实现了视频录制与续航能力的重大飞跃。核心升级:3K视频+8小时续航初代Ray-BanMeta于2023年底发布,受限于1080p分辨率和仅4小时的典型使用续航,在实用性上存在短板。而新发布的Gen2彻底弥补了这些差距:视频录制:支持最高3K分辨率(约2880×1620),远超初代的1080p。电池续航:典型使用下可达8小时,较前代翻倍。此外,用户可在三种录制模式中自由选择:1200p@60FPS(流畅动作捕捉)1440p@30FPS(平衡画质与文件大小)3K@30FPS(最高画质)所有模式下,单次录制最长可达3分钟,满足日常瞬间记录需求。功能延续:仍是那副"听得见、拍得到"的智能眼镜除了硬件升级,Ray-BanMetaGen2的核心功能体验与初代保持一致:无屏幕设计,依赖语音交互内置12MP摄像头,支持拍照与视频五麦克风阵列+双耳外放扬声器支持音乐、播客、有声书播放接打电话、语音助手(HeyMeta)实时语音翻译、二维码扫描通过MetaAI(基于大语言模型的视觉助手)识别眼前物体并提供信息第一人称视角直播至WhatsApp和Messenger视频通话可设置播报手机通知简而言之,它依然是一副专注于听觉交互与第一视角记录的时尚智能眼镜,而非AR显示设备。价格策略:双线并行,覆盖不同预算Ray-BanMetaGen2:起售价$380,即日起发售。初代Ray-BanMeta:将继续销售,作为更实惠的选择,起售价$300。这一策略让Meta能够同时满足追求最新性能的用户和预算敏感型消费者,巩固其在消费级智能眼镜市场的主流地位。同场发布:Meta首款带屏眼镜Ray-BanDisplay正式亮相值得一提的是,本次发布会还正式推出了MetaRay-BanDisplay--Meta首款搭载单目AR显示屏的智能眼镜,售价$800,包含MetaNeuralBand(sEMG神经腕带),初期仅在美国部分实体零售商(如BestBuy、SunglassHut等)发售。相比之下,Ray-BanMetaGen2定位更偏向大众市场,是Meta在"无屏智能音频眼镜"赛道上的又一次精准升级,确保其在OakleyHSTN发售后仍能保持产品线竞争力。
在今日的MetaConnect2025发布会上,Meta揭示了一项酝酿多年的新功能--ConversationFocus(对话聚焦),旨在通过其智能眼镜增强用户在嘈杂环境中的听觉体验。该功能可实时放大对话对象的声音,抑制背景噪音,被Meta描绘为一种"感知超能力"(perceptualsuperpowers)的现实落地。这一构想最早可追溯至2020年Facebook时期的研究项目"增强听觉"(enhancedhearing),历经多年算法与硬件协同优化,终于迎来实际应用阶段。"听清你面前的人":技术原理与使用场景在发布会演示视频中,一名用户站在喧嚣街头,与朋友交谈时突然停下,对眼镜说出指令:"HeyMeta,startconversationfocus."随即,系统启动音频增强模式,将对话者的声音在耳内显著放大。扎克伯格现场承诺:"如果你在一家嘈杂的餐厅,你基本上可以'调高'朋友的音量。"这一功能依赖于眼镜上的多麦克风阵列与AI音频分离技术,通过空间定位识别正前方说话者的声音,并动态抑制周围环境噪声,实现类似"听觉变焦"的效果。Meta表示,该功能将支持其全线智能眼镜产品,包括:Ray-BanMetaRay-BanMetaGen2OakleyMetaHSTNOakleyMetaVanguardMetaRay-BanDisplayGlasses演示中的争议:实用vs.打断尽管概念极具吸引力,但演示视频也引发了一些质疑。在播放片段中,被放大的语音呈现出明显的电子化失真,听起来略显机械与不自然。更关键的是,用户需要在对话中主动喊出语音指令来启动功能,这一行为在真实社交场景中可能显得突兀甚至失礼。试想:你正与朋友在酒吧聊天,突然说一句"HeyMeta,开启对话聚焦",随即对方的声音在你耳中被"放大",这种中断式交互是否真的无缝?还是反而破坏了交流的自然流动?真正的价值或在无障碍领域尽管在普通用户中可能存在使用习惯门槛,但ConversationFocus的最大潜力,或许在于辅助听障人群。对于轻度听力受损或在特定环境(如老年聚会、机场候机厅)中沟通困难的用户而言,这种"可调节的听觉增强"功能可能带来实质性帮助。它让智能眼镜不再只是信息输出设备,而是成为感官补偿工具,真正体现科技的包容性价值。
在MetaConnect2025的密集发布之外,Meta宣布了一项针对运动用户的实用升级:其智能眼镜产品线(包括Ray-BanMeta、OakleyMeta系列及新款MetaRay-BanDisplayGlasses)将正式支持Garmin手表集成,并新增对Strava的深度兼容。这一更新让智能眼镜从"时尚+社交"设备,进一步延伸为全天候运动伴侣。实时语音查询:用"HeyMeta"掌握运动状态通过将Garmin设备与MetaAI账户绑定,用户现在可以在锻炼过程中直接向眼镜发问,获取实时健康与运动数据。例如:"HeyMeta,what'smyheartrate?""HeyMeta,howamIdoing?"系统会即时播报当前心率、配速、距离、海拔等关键指标,无需停下查看手表或手机。这种"语音优先"的交互方式,在跑步、骑行等双手不便操作的场景下尤为实用,真正实现信息的"无感获取"。Autocapture自动捕捉:关键时刻,一个不错过此次更新还带来一项名为Autocapture(自动捕获)的新功能。只需语音指令"HeyMeta,enableAutocapture",眼镜便会进入智能录制模式--当系统检测到你达到关键里程节点,或心率、速度、海拔显著提升时,将自动录制一段视频片段。这意味着,无论是冲刺五公里终点、爬升最后一段陡坡,还是突破个人最快配速,你的智能眼镜都能自动记录下这些高光时刻,并生成带有时间戳的精彩集锦,便于后续回顾或分享。Strava数据叠加:打造专业级运动Vlog对于希望制作高质量运动视频的用户,Meta还推出了Strava数据叠加功能。你可以选择将来自Garmin和Strava的运动数据--如心率曲线、实时速度、累计爬升、配速区间等--直接叠加在眼镜拍摄的视频画面上。用户可自定义显示哪些指标、字体大小与位置,甚至可以选择完全隐藏数据层。这一功能让普通的第一视角录像,瞬间升级为具备专业分析价值的训练日志或社交媒体内容,尤其适合健身博主、跑步爱好者和户外探险者。
在今日举行的MetaConnect开发者大会上,Meta正式发布了与依视路·陆逊梯卡(EssilorLuxottica)联合打造的下一代智能眼镜产品线,几乎完全印证了昨日的"意外泄露"。其中最受瞩目的,正是传闻已久的搭载单目光学显示屏的MetaRay-BanDisplayGlasses--这标志着Meta在消费级增强现实(AR)眼镜上的首次实质性突破。扎克伯格在主题演讲中展示了三款新基础型号,命名策略也迎来一次微妙调整:原本预期的"Ray-BanMetaGen3"并未出现,取而代之的是定位最高端的MetaRay-BanDisplayGlasses。这一命名变化突显了"显示功能"作为核心卖点的战略意图。其余两款则延续品牌合作路线:主打运动风格的OakleyMetaVanguard,以及迭代款Ray-BanMetaGen2。后者与今年7月发布的OakleyMetaHSTN共同构成更完整的产品矩阵,覆盖不同用户场景与审美偏好。799美元的AR尝试:一块单目屏,如何改变交互?新发布的MetaRay-BanDisplayGlasses定价799美元,硬件配置延续了前代优势:1200万像素摄像头、五麦克风阵列、双耳外放扬声器、语音控制、拍摄LED提示灯等一应俱全,并统一采用高通SnapdragonAR1Gen1芯片平台。真正划时代的升级,在于右眼集成的全彩单目微显示器。这块600×600像素、视场角达20°的屏幕,像素密度为42PPD,刷新率90Hz(内容更新30Hz),亮度范围30–5000尼特,支持UV感应自动调节显示强度。Meta强调其光学设计具备极低光泄漏(<2%),确保他人难以窥视你正在查看的内容,兼顾隐私与实用性。这意味着,用户终于可以在不掏出手机的情况下,私密地浏览信息、接收通知、甚至进行视频通话。你可以一边走路,一边通过镜片看到WhatsApp、Messenger或Instagram的消息,并直接语音或手势回复。更进一步,它还能实现第一人称视角的实时直播通话--对方能看到你眼中所见的世界。手势之外:sEMG神经腕带开启"无感交互"新维度如果说显示屏是"输出端"的进化,那么随眼镜一同亮相的MetaNeuralBand(神经腕带)则是输入方式的革命。这款基于表面肌电图(sEMG)技术的可穿戴设备,能捕捉前臂肌肉在手指和手部动作时产生的微弱电信号,实现无需视觉识别的精准手势控制。它支持全天佩戴,续航长达18小时,具备IPX7防水等级,并内置触觉反馈功能。具体交互方式包括:拇指轻扫:左右切换音乐捏合手指+手腕旋转:调节音量Meta正在开发的EMG手写识别功能,未来或可直接"空中写字"输入文本当视觉显示与sEMG手势结合,一系列新场景被解锁:导航时,镜片上可叠加步行路线与区域地图(目前为有限城市Beta测试);对话中,系统可提供实时字幕与外语翻译,近乎实现"无障碍沟通";拍照时,显示屏可作为取景器,支持3倍数码变焦,并允许直接预览、保存和分享照片与1080p视频。从处方支持到全球扩张:Meta的谨慎野心MetaRay-BanDisplayGlasses默认配备变色镜片,支持-4.00至+4.00的处方镜片适配(具体方案尚未详述),电池续航约为6小时混合使用,配合可折叠便携充电盒可延长至30小时,并支持20分钟快充50%。产品首发提供ShinyBlack与ShinySand两种配色,镜框有标准与大号可选,NeuralBand提供三种腕围尺寸。由于需要专业验配,Meta将采取线下优先策略,9月30日起仅在美国部分实体零售商发售,包括BestBuy、Lenscrafters、SunglassHut和Ray-Ban门店,Verizon门店也将陆续上架。国际市场的扩展计划已明确:加拿大、法国、意大利和英国将于2026年初推出,后续将逐步开放更多购买渠道。
在MetaConnect2025大会前夕,一则短暂上线后迅速被删除的非公开视频,揭开了Meta下一代智能眼镜的最终形态:这款搭载单目光学显示(HUD)并由sEMG肌电腕带控制的设备,正式定名为"MetaRay-BanDisplay"--雷朋品牌将成为其面向消费市场的重要背书。这一命名策略,标志着Meta与EssilorLuxottica战略合作的进一步深化,也意味着这款被长期传闻的"准AR"设备,正以更贴近大众消费电子产品的姿态,走向商业化落地。雷朋之名:从独立产品到品牌协同视频展示了Meta即将推出的完整智能眼镜产品线,包括:常规款Ray-BanMeta智能眼镜近期发布的OakleyMetaHSTN传闻中的OakleyMetaSphaera(带眼部防护与居中摄像头)搭载单目HUD的"MetaRay-BanDisplay"其中,"MetaRay-BanDisplay"是此次曝光的核心。尽管此前多家媒体(包括彭博社、TheVerge、TheInformation)已预测Meta将在2025年推出HUD眼镜,但使用雷朋品牌而非独立Meta品牌,仍出乎不少行业观察者的预料。去年,《TheInformation》曾报道称,EssilorLuxottica因眼镜镜腿需加厚以容纳显示模组而"犹豫不决",可能阻止该产品以Ray-Ban品牌面世。当时消息称,设备重量预计达70克,显著高于当前Ray-BanMeta眼镜的50克。然而,局势显然已发生变化。30亿欧元投资换来的品牌话语权转折点或许在于Meta对EssilorLuxottica的深度绑定。今年早些时候,Meta宣布向后者投资30亿欧元,获得其3%股权,并可能逐步增持至5%。这笔交易不仅强化了双方供应链与研发协同,更关键的是--Meta由此获得了对品牌授权更强的话语权。雷朋作为全球最具辨识度的时尚眼镜品牌之一,拥有庞大的线下零售网络(数千家门店)和成熟的消费认知。若Meta选择独立品牌推出HUD眼镜,将面临更高的市场教育成本与渠道建设门槛。而挂上"Ray-Ban"之名,则意味着设备可直接进入主流消费场景,实现更高效的用户触达与体验转化。此外,《金融时报》早在今年1月就披露,下一代Ray-BanMeta眼镜将"配备显示屏"。如今看来,这一计划已从传闻落地为产品命名。非AR,但更务实:HUD+sEMG的轻量化交互路径需要明确的是,"MetaRay-BanDisplay"并非真正意义上的增强现实(AR)设备,也远不如ProjectOrion原型那般激进。其HUD为固定式单目显示,仅右眼可见,功能聚焦于实用场景:MetaAI语音助手的视觉反馈步行导航指引消息通知与快捷回复视频中还展示了sEMG腕带的核心交互:用户可通过在桌面轻swipe手指,逐字母输入回复消息--无需物理键盘,也无需语音。这种"隐式输入"方式,延续了Meta对"自然交互"的探索,试图在隐私性与效率之间取得平衡。尽管技术规格尚属保守,但这种"轻AR"策略反而更具现实意义:在全彩波导、轻量化AR眼镜尚未成熟的当下,Meta选择以渐进式创新,先解决"信息提示"与"无感交互"两大刚需。Connect2025前夜:消费级混合现实的临界点随着Connect2025大会临近(主议程于太平洋时间周三17:00举行),Meta正试图向市场传递一个清晰信号:混合现实的消费化,不必从"完全体AR"开始。通过雷朋品牌降低用户心理门槛,通过sEMG腕带探索新型交互,通过HUD实现基础信息叠加--这一系列组合拳,构成了Meta在AR真正普及前的"过渡方案"。据彭博社MarkGurman透露,该设备起售价预计为800美元,定位高端智能穿戴市场。若产品体验与品牌协同得当,或将开启智能眼镜从"极客玩具"向"日常装备"转变的新阶段。
2025年9月15日,Snap正式推出SnapOS2.0--专为其第五代及即将发布的第六代SpectaclesAR眼镜打造的操作系统。这一更新虽未伴随硬件亮相,却清晰传递出一个信号:Snap正全力冲刺消费级AR市场。与Meta、Google等巨头选择从"智能眼镜"起步不同,Snap跳过过渡形态,直接押注轻量级AR设备。而SnapOS2.0的发布,正是为2026年即将上市的首款面向大众的Spectacles铺路。系统先行:四大功能升级,瞄准日常使用在第六代Spectacles硬件参数仍被保密的情况下,Snap选择通过系统更新释放战略意图。SnapOS2.0聚焦内容消费与交互体验,带来四项关键升级:全新浏览器:极简设计,提速降耗Snap对内置浏览器进行了全面重构,采用极简界面,优化页面加载速度与功耗表现。这意味着用户在户外使用时,能更流畅地浏览网页,延长续航。作为最基础也最高频的功能,网页体验的提升,是AR设备走向日常的第一步。Spotlight:手机内容空间化投射通过专属Lens"Spotlight",用户可将手机上的照片、视频或网页内容,以空间化方式投射到现实环境中,实现免持观看。这一功能强化了AR作为"第二屏"的潜力,适用于咖啡馆、通勤、家庭等轻社交场景。Gallery相册:手势操控,沉浸回看新GalleryLens支持手势滑动浏览Spectacles拍摄的视频,可缩放、收藏、一键分享至Snapchat。这不仅提升内容消费体验,也进一步闭环"拍摄-回看-分享"的社交链条。引入《SynthRiders》:首款重量级XR游戏登陆经典XR节奏游戏《SynthRiders》正式入驻Spectacles。玩家可在现实空间中击打音符、穿越轨道,同时保持对周围环境的感知。这种"混合现实"玩法兼顾沉浸感与安全性,是AR娱乐的典型应用场景。AI能力就位:翻译、问答、情境感知已集成过去数月,Snap已为Spectacles注入多项AI功能:实时文本翻译(如菜单、路牌);支持40种语言的语音翻译;AI"空间提示":用户可直接提问"这是什么?"、"附近有什么推荐?",系统结合视觉与位置信息作答。这些能力虽依赖云端或手机协同,但已构建出"现实增强助手"的雏形,目标是让眼镜真正成为日常生活的智能延伸。开发者生态开放:支持Gemini与ChatGPT自2025年6月起,开发者可通过LensStudioAPI将手机端SnapchatLenses移植至Spectacles。更关键的是,Snap已开放与GoogleGemini和OpenAIChatGPT的集成,支持构建基于大模型的AR应用。这意味着未来可能出现更多智能问答、情境推荐、实时信息叠加等场景,Snap正在构建一个轻量但开放的AR生态。消费级AR的"关键一战"目前,第五代Spectacles(2024款)仍主要面向开发者。而第六代产品将是Snap首款真正面向消费者的AR眼镜,尽管价格、发布时间尚未公布。SnapCEO埃文·斯皮格尔在近期公开信中称2026年为公司的"关键考验之年",并明确表示:Spectacles是Snap未来的核心。他认为,AR设备不仅能替代多个物理屏幕,其操作系统还将具备"上下文记忆",价值随使用时间累积。"这不仅是生存之战,更是要证明:一种以深化友谊、激发创造力为核心的科技路径,能在当下世界取得成功。"差异化路径:Snap抢跑,巨头试水值得注意的是,Meta、Google、Apple、三星等对手目前仍停留在"智能眼镜"阶段--主打音频、拍照与通知提醒。而Snap选择跳过过渡形态,直接切入轻AR,虽风险更高,但一旦成功,便可能抢占先机。
VR52网成立于2015年,平台提供VR头显、AR眼镜、配件外设、厂商、测评、行业资讯、游戏与应用、展会活动等。