• 谷歌AI眼镜卷土重来:双线并进,2026年Q4或迎消费级回归

    2025-12-02 09:14:47

    据科技媒体《IntelligentEmergence》披露,谷歌已于2024年底启动两个独立的AI眼镜项目,目前均已进入概念验证阶段,正密集推进核心元器件选型与工业设计。这标志着这家AR领域的先行者,在沉寂多年后,正以更系统、更务实的姿态重返智能眼镜赛道。双项目并行,与Xreal合作款无关值得注意的是,尽管谷歌在今年5月I/O大会上联合中国AR品牌Xreal发布了ProjectAuraAR眼镜,但消息人士明确指出,此次推进的两个新项目与Aura无任何关联,属于完全独立的平行开发路线。这意味着谷歌正在多路径探索AI眼镜的未来形态。硬件方面,富士康(Foxconn)负责整机组装,三星提供参考设计,高通供应主芯片,同时谷歌也在接触包括歌尔股份在内的中国供应链企业。产品预计将采用光波导光学方案,并集成摄像头,定位为具备视觉感知能力的AI终端。项目核心负责人之一为MichaelKlug--现任GoogleLabs平台工程负责人,曾是MagicLeap早期核心成员,持有包括光场显示在内的多项关键技术专利。其背景暗示谷歌在光学与空间计算层面仍抱有高远目标。从"炫技"到"实用":谷歌的十年反思谷歌早在2012年便以GoogleGlass开启智能眼镜时代,创始人SergeyBrin甚至通过跳伞直播震撼全球。然而因隐私争议与功能局限,该产品于2015年黯然退市。此后,谷歌并未放弃,而是转向B2B领域谨慎试水:将GlassEnterpriseEdition应用于物流分拣、远程医疗指导、工业设备维护等场景,积累真实世界数据与使用反馈。这一战略调整为其后续AI眼镜的"问题导向"设计奠定了基础。全栈布局:OS+AI+生态,谷歌手握王牌如今面对MetaRay-Ban智能眼镜的先发优势,谷歌并非仓促应战,而是早已完成底层基建:操作系统:2023年联合三星、高通推出专为XR设备打造的AndroidXR,直接接入GooglePlay商店,复用庞大应用生态;AI大模型:自研Gemini模型集自然语言理解、多模态推理、知识库与生成能力于一体,已深度部署于Pixel手机;AI智能体:2024年I/O大会展示的ProjectAstra,即基于Gemini构建,具备视觉理解、长期记忆与连续对话能力,并已在眼镜原型上实现实时演示。这些技术模块的成熟,使谷歌AI眼镜有望成为首个真正融合端侧AI智能体+空间感知+内容服务的一体化终端。最强对手入场,AI眼镜战局升级随着苹果VisionPro聚焦空间计算、Meta押注社交化AI眼镜,谷歌的回归或将重塑竞争格局。凭借十年硬件经验、全栈技术能力与全球生态资源,谷歌被视为"AI眼镜领域历史上最全面的选手"。若进展顺利,其首款消费级AI眼镜最早或于2026年第四季度面世。届时,这场围绕"下一代个人计算入口"的争夺,将迎来真正的高潮。

  • 共 1 条1/11

    热门资讯