美国专利商标局公布了谷歌的一项智能眼镜设计专利申请,该设计旨在减少微型显示器损失的光量。分享该新闻的苹果知识产权新闻博客PatentlyApple称,这款创新的智能眼镜设计以带有大眼罩的弯曲薄透明光导为中心。这种弯曲的光导有一个半波板(HWP),可以将主图像的输入偏振翻转为"正交偏振",还有一个"介电镜",可以作为暗淡侧图像的"弱分析仪"。在谷歌专利申请的背景部分,它解释了如何通过限制逸出的光量来改善体验:"在眼镜显示设备中,从微型显示器传输到用户眼睛的光通常会经历多次反射、折射、衍射和/或偏振变化,这会导致系统内的杂散光。"眼镜显示设备内的杂散光会降低图像对比度,并会在视野中产生模糊和重影。"最大限度地减少眼镜显示设备中的杂散光可以为用户提供更愉快的观看体验,同时还能减少眼睛疲劳。"2024年12月,新闻网站Mashable发现谷歌已为智能眼镜申请了专利,该眼镜配备自适应助手,可以响应用户的口头命令及其关注点。自动助手会在智能眼镜屏幕上显示建议,然后用户可以通过目光进行交互。就像其最近的专利一样,目前尚不清楚谷歌是否会真正构建这些设计,是否会为合作伙伴的努力做出贡献,或者这是否仅仅是对该技术的探索。最新的专利申请概述了许多潜在的设计迭代,它称之为"实施例",如果它选择将其设计付诸实践,则可以为其提供更大程度的自由:"在一些实施例中,该装置包括用于承载镜片的框架,其中弯曲光导的至少一部分和输入耦合器的第一部分设置在镜片内,而输入耦合器的第二部分设置在框架内。"在一些实施例中,入射耦合器的第一部分具有球形眼侧表面,而入射耦合器的第二部分具有非球形眼侧表面。"一些实施例涉及利用偏振光源与半波板(HWP)的组合来调暗弯曲光导中的侧图像的技术。"阿斯特拉计划这个设计是否与"ProjectAstra"有关?ProjectAstra是谷歌在2024年5月的GoogleI/O大会上推出的AR智能眼镜原型,该公司计划通过它打造"终极"AI助手。基于谷歌的Gemini技术,ProjectAstra将为用户提供直观的人工智能助手,可执行解释内容和回答问题等各种任务。最初,谷歌承诺Astra将于2024年通过Gemini应用程序推出,但谷歌首席执行官SundarPichai在第三季度财报电话会议上更正了这一承诺,他表示AR智能眼镜将于2025年发布。无论该专利申请是否与ProjectAstra直接相关,它都进一步证明了谷歌对增强现实世界的兴趣和参与。当然,自2024年初以来,谷歌就一直与高通和三星在AR技术方面展开合作,但该领域尚未像Meta和苹果等主要竞争对手那样对AR表现出同等程度的投入。这些科技巨头通常选择相互让步,而不是直接竞争。然而,AR的蛋糕可能太大了,不容忽视,尤其是根据TransparencyMarketResearch的报告,预测到2030年XR市场将达到600亿美元,甚至1.1万亿美元。
去年对于XR来说是忙碌的一年。AvidXRToday的读者一定非常熟悉2024年的重大XR时刻,包括MR耳机、数字孪生、AppleVisionPro、Orion等;然而,这些时刻正在成为历史,而明天的创新将大步迈进。2024年,人工智能浪潮主导了新兴技术领域,超越了许多XR技术雄心。新一代人工智能产品出现,或者该技术在现有服务中变得司空见惯。另一方面,2024年,对AR智能眼镜的投资也开始出现,为许多支持者所声称的下一个智能手机时刻奠定了基础。AR智能眼镜领导者普遍表示,可穿戴技术有潜力让用户与RT3D内容进行交互、根据周围环境利用AI以及免提与他人交流,从而有可能开创下一种人机交互形式。许多供应商都试图在这个看似繁荣的AR智能眼镜市场中分一杯羹。2024年,Meta通过与EssilorLuxottica的合作,突出了其相关成功,明确了其承诺;另一方面,三星花了一年时间用XR设备吸引观众,与Meta和其他公司竞争,虽然该设备尚未上市,但三星似乎已准备好在2025年推出该产品。另一方面,必须注意的是,XREAL、Vuzix和ReoNeo等公司正在努力打造适用于广泛消费者用例的智能眼镜。虽然上述增强现实智能手机时刻的到来仍需很多年,但第一家开创先例并为该技术创造第一波重大炒作和采用浪潮的公司将成为领跑者,并在边缘消费者眼中被视为创新者。对于企业而言,AR智能眼镜也正在构建坚实的基础,RealWear等公司已部署智能可穿戴设备,以帮助应对要求苛刻的专业环境。此外,MDM和XRaaS解决方案等配套产品为智能眼镜在企业中的应用奠定了基础。此外,虽然AR已经在企业中找到了利基用例,但如果AR智能眼镜在消费智能手机领域取得成功,那么就像过去几年的iPhone和Andriod设备一样,决策者将开始问:"我们公司如何使用这项新技术来优化运营并节省资金?"为了实现这些愿景,需要AR技术领域的领导者愿意投入时间和资金来确保这一未来。在2025年,Meta和三星似乎已经在新年伊始就准备在这场竞争中夺得头把交椅。Meta提升雷朋智能眼镜的显示能力2025年伊始,Meta似乎对AR智能眼镜抱有远大的期望。目前,有关其雷朋智能眼镜的传言四起,称这款入门级可穿戴设备将比最初预期的更早获得AR平视显示屏。虽然雷朋可穿戴设备在技术上与许多人认为的真正的AR智能眼镜产品相差甚远,但这款消费设备似乎已证明是AI集成、精简版AR可视化和空间识别等功能的成功试验台。例如,Meta去年重点介绍的Orion设备展示了成熟的AR可穿戴设备的能力,包括根深蒂固的人工智能功能和对高级3D增强显示的支持。Meta自己称Orion为时间机器,展示了智能眼镜的未来。精简版雷朋产品让早期采用者今天就能体验到未来的发展。不过,由于雷朋(Ray-Ban)刚刚获得可用于众多地区的AI集成,Meta可能会凭借其雷朋产品更进一步。据英国《金融时报》报道,Meta计划为雷朋眼镜引入AR抬头显示可视化功能。有报道称,Meta将于2025年推出新一代眼镜,其中将包含一个小型镜头内屏幕,用于显示更先进的增强视觉效果。关于下一代雷朋智能眼镜的细节很少,因为Meta尚未触及该主题。据报道,新款雷朋将于2025年上市,让可访问的消费者AR技术更接近Orion的愿景。如果Meta今年确实推出下一代智能眼镜,它很可能会跟随MetaConnect推出其新技术。2024年,Meta发布了新款MR耳机和最新款RayBan智能眼镜。2025年的新产品可能要等到前几代设备问世一段时间后才会上市,这使得公司能够在2025年学习并优化其产品组合。三星会在2025年进入AR可穿戴设备市场吗?2024年,三星明确承诺开发XR可穿戴设备以加入其Galaxy生态系统。这对三星的沉浸式技术目标来说是一个巨大的好处,因为它为任何未来的XR设备提供了Galaxy硬件和软件的支持基础。虽然细节不多,但三星的热情显而易见。2025年,XR市场可能会收到更多信息,也许三星XR产品还会首次亮相。91mobiles的专家发现了一些新信息,这些信息可以为该公司即将推出的沉浸式设备的未来提供重要见解。在三星的新专利申请中,该公司强调了其对智能眼镜设备的研发,该设备包括内置麦克风和扬声器,这可能表明其具有与MetaRay-Ban类似的功能,例如媒体播放、语音控制和远程通信。该设备特别希望通过增加功能来优化语音输入集成,以减少用户在旅途中使用该设备时可能遇到的二手界面(例如电力线干扰)引起的扬声器噪音。此外,三星最近的专利指出,该设备将包含一个触摸传感器,以提供更多用户输入选项。专利并不能全面展现一款设备上市后会变成什么样子;然而,结合三星即将推出的设备的先前证据,我们可以大致了解这款设备的情况,并可能为Meta的智能眼镜竞赛带来一个有利可图的选择。去年年底,AndroidXR推出了XR操作系统,并首次展示了三星的耳机。三星的XR耳机代号为"ProjectMoohan",将于明年上市。虽然ProjectMoohan的功能仍处于推测阶段,但预计AI将在该设备中发挥重要作用。作为AndroidXR公告的一部分,谷歌强调了GeminiAI助手在创造与耳机及其可视化交互的新机会方面发挥的关键作用。谷歌还强调,由于其熟悉的Android基础,XR操作系统可以支持各种现有的手机和平板电脑应用程序以及专门构建的AndroidXR内容。这一发展解决了更广泛的XR采用过程中的一个重大障碍:用户需要访问各种应用程序和引人注目的服务,以鼓励他们投资XR设备。2025年智能眼镜的未来仍然充满不确定性,但随着今年有更多产品问世,供应商们都希望在2024年的基础上再接再厉。
近日,STYLY株式会社宣布,此前以付费套餐形式提供的城市XR功能,将在空间计算平台"STYLY"上向普通用户开放。即将发布的功能包括将现实世界位置与AR内容联系起来的"城市锚功能",以及提高显示位置准确性的"位置标记功能"。STYLY是一项能够在真实城市和生活空间中创建、分发和体验数字内容的服务。开发为连接数字和物理的空间计算平台。2024年6月,我们在全球XR会议"AWE(AugmentedWorldExpo)"的全球奖项"AUGGIEAWARDS2024"中获得了创意工具类别的奖项。此次免费发布的"城市锚点功能",可以通过在AR场景中设置参考点,将真实地点与场景关联起来。借助此功能,当您访问设定位置时,您将能够体验该位置特定的AR内容。通过将其与精确定位您所在位置的VPS(视觉定位系统)技术相结合,可以在世界各地的不同地点创建XR体验。另外,关于"位置标记功能",iOS和Android设备之间的显示位置错位得到了显着改善。此外,还实现了自动创建标记的新功能,使生产过程更加高效。STYLY计划继续与企业和创作者合作开发利用XR和空间计算技术的项目。请注意,该功能在某些地方不可用,因此您需要查看官方手册以获取更多信息。
以色列人工智能初创公司Descart因其开发的名为"Oasis"的世界模型而受到关注,该模型使用人工智能实时生成类似游戏的3D空间。该公司于12月19日在A轮融资中筹集了3200万美元,两个月前刚刚筹集了2100万美元。该公司估值超过5亿美元。Descart总部位于以色列特拉维夫和美国旧金山,于2024年10月底宣布获得2100万美元种子轮融资,并在当时将"Oasis"公之于众。A轮融资由Benchmark领投,红杉资本和ZeevVentures跟投。我们筹集了3200万美元。自上次采购以来不到两个月的时间里,该公司的估值增长了约五倍,达到超过5亿美元。Oasis由Decart开发,是一种实时生成类似《我的世界》游戏玩法的AI模型。该AI模型使用Minecraft游戏片段作为训练数据,根据键盘和鼠标输入实时生成物理、规则和图形。TechCrunch记者的一篇报道指出,分辨率较低,创建的空间可以维持的时间很短,但该公司计划使用高性能GPU来支持4K分辨率的游戏生成。"绿洲"属于一个名为"世界模型"的新AI类别。世界模型是可以模拟3D空间和游戏的AI模型,但像《绿洲》这样能够实时生成帧的模型据说很少见。Decart是一家初创公司,由26岁的DeanLeitersdorf创立。MosheShalev曾在以色列国防军情报部队创办并管理人工智能部门14年,他作为联合创始人参与其中。除了AI研发之外,该公司还为企业提供GPU优化软件,据称已经创造了数百万美元的收入。未来,笛卡尔计划作为"Oasis"的演进,提供不需要特殊硬件的AR/VR体验。Leitersdorf告诉TechCrunch,"[VR/AR行业迄今为止的问题]是我们从硬件开始。但是构建硬件很困难,而且很难让人们体验新的硬件……普及它也非常困难。"生成式AI的好处在于,您可以在硬件准备就绪之前在软件方面实际提供AR体验。"
Holoeyes有限公司发布了其医学图像处理软件"HoloeyesMD"的MD3.0版本,该软件与AppleVisionPro兼容。使用AppleVisionPro的直通功能,可以将CT和MRI图像创建的3D模型叠加在真实空间上显示。医务人员将能够在检查周围环境的同时检查3D医学图像。HoloeyesMD是一款软件,可创建使用CT和MRI等诊断成像设备拍摄的医学图像的3D模型。自2020年2月获得医疗器械认证以来,已在全国70多家医疗机构推广。通过将平面显示器上难以掌握的深层解剖信息显示为3D模型,支持医疗专业人员的理解。主要用于手术领域的术前模拟和术中显示,也用于远程医疗会议、临床教育和培训。通过本次更新,自2024年10月起为MetaQuest系列实现的"直通"功能现在也可用于AppleVisionPro。您可以在实时检查周围环境的同时叠加3D模型。HoloeyesCo.,Ltd.成立于2016年10月,其使命是"在空间上复制和共享医学图像和医学知识,以优化医疗护理"。该公司的HoloeyesMD被用于总共约200个临床部门,包括外科医生和牙医等医疗专业人士、医疗器械/制药公司和教育机构,包括在日本和海外的试点引进。2023年8月,我们将筹集约4亿日元的资金,用于扩大我们的人力资源并加强技术开发。
据《金融时报》报道,下一代Ray-BanMeta眼镜将在今年晚些时候发布,并将配备一个小型抬头显示器(HUD)。这与《信息报》7月份的报道相矛盾。当时,《信息报》称Meta的HUD眼镜将在2025年推出,但不会与EssilorLuxottica合作,因此不会有Ray-Ban的设计或品牌标识,因为该公司对包含波导投影仪的设计厚度表示不满。这意味着两家媒体中的一家可能存在错误。然而,《信息报》的报道是在Meta将其与EssilorLuxottica的合作延长"至下一个十年",以开发"多代智能眼镜产品"并投资其5%股权之前数月发布的。因此,也有可能是Meta说服了EssilorLuxottica改变了主意。这个小型抬头显示器可以用于显示通知、代替音频输出来自MetaAI助手的文字信息,以及在拍照前帮助构图。Meta高管之前曾提到过"取景器"的概念。即使HUD眼镜上市后,根据马克·扎克伯格在过去一年的采访中的评论,Meta仍将继续提供不带显示器的更便宜的智能眼镜很长时间,这是由于MetaAI的巨大潜力。扎克伯格最初认为智能眼镜需要显示器才能有用,但现在他认为仅音频版本应该继续作为独立的产品线存在。因此,HUD眼镜和AR眼镜将成为高端产品线,而不是取代仅音频的智能眼镜。目前的Ray-BanMeta眼镜已经取得了巨大的成功,Meta和EssilorLuxottica常常一生产出来就被抢购一空。但是,消费者是否会接受增加的体积和重量,如果它能带来一个小显示屏?这类产品的成功是否取决于其外观是否像普通眼镜?Meta的下一步动作将回答这些问题,而三星和谷歌也准备跟进。
近日,一些Quest头显用户反映,在圣诞节期间发现手中的设备变成了"砖头",即无法正常使用。针对这一情况,Meta在其帮助网站上发布声明:"我们发现了一次软件更新问题,导致部分Quest2/3/3S头显变得无响应且无法正常启动。我们正在积极解决这一问题,目前大多数用户的设备已恢复正常。如果您手中的设备仍然无响应,请点击下方按钮获取下一步指导。感谢您的理解。"Meta负责HorizonOS和Quest设备的副总裁MarkRabkin在X.com上表示:"几乎所有的用户现在都可以正常使用设备--但如果您仍遇到问题,请联系客户支持,我们将为您解决问题。"此前,有用户报告称,在软件更新失败后,他们的头显变得无法使用,而Meta客服最初告知他们需要购买新设备。现在,这些用户中的一些人表示,他们已经收到了可以免费更换头显的通知。一位用户在12月31日取出了一台长时间未使用的Quest2,但在经过数小时尝试使用Meta的软件更新工具和恢复出厂设置后,仍无法使头显完全恢复正常工作。该用户访问了Meta的支持页面,并按照提示操作。通过输入序列号检查是否符合"产品索赔"条件以获得更换服务时,发现自己的Quest2并不符合条件。尽管设备并非完全无响应,但它也无法加载设置配对屏幕超过一瞬间。我们向Meta询问了此次更新导致多少台头显"变砖",以及他们提供的更换数量。鉴于圣诞节、新年假期以及Quest2长时间未使用后重新上线的情况,我们非常好奇了解这一问题的影响范围及解决方案的具体细节。
佛罗里达州的一名法官刚刚开创了一个先例,可能会永远改变美国的法律体系,甚至是全球的法律体系。安德鲁·西格尔法官并没有做出一项将永远改变法律格局的开创性裁决。他所做的比这更愚蠢。他使用虚拟现实耳机来更好地理解被告的证词。这很可能是虚拟现实技术首次在法庭上使用。米格尔·阿尔比苏(MiguelAlbisu)是南佛罗里达州西南牧场社区一家婚礼场地的老板。20232023年在一场酒会上,醉酒的参加者有点不守规矩,他被指控向婚礼宾客挥舞枪支。为此,他被指控使用致命武器实施严重袭击。阿尔比苏说他这么做是出于自卫。法官在法庭上使用虚拟现实耳机Albisu的辩护律师KenPadowitz决定在向法官陈述案件时来点创新。他说他想让法官站在他的当事人的角度。所以他把OculusQuest2戴在法官的头上,让法官看到Albisu的视角,那天晚上他被一群在聚会场所里横冲直撞的醉酒狂欢者包围。Halcion电脑动画时代1992年,帕多维茨就提交了计算机动画重现犯罪的证据。几十年后,他仍在做同样的事情。但现在技术已经发展到法官和陪审团几乎可以真正站在客户的角度。这样,法官不仅可以理解证词的措辞,还可以更直观地了解证词的实际状况。这是否会使他的案子更有说服力,则取决于陪审团。请记住,律师以高科技第一人称视角来阐述客户的论点并不意味着它是正确的。它仍然受到客户对情况的记忆的影响,而这些记忆可能是错误的,也可能是完全错误的。虚拟现实技术并不能改变这样一个事实:人类记忆与当晚事件的进展有关,而这正是这里要审理的。如果本案中有监控录像,那么这很可能比被告辩词的3DVR重现效果要好得多。不过,律师打破常规为客户辩护还是很酷的。未来几年,这是否会成为一种标准策略还有待观察。但有一件事是肯定的:未来的法官和陪审团最好随身携带一些晕动药,以对抗VR晕动病。
研究人员的MouseGogles被一只老鼠佩戴。©康奈尔大学人类并不是唯一加入虚拟现实热潮的生物。科学家刚刚推出了一项新技术,让老鼠在实验室中更真实、更可爱地体验虚拟现实。康奈尔大学的研究人员开发了这项技术,他们将其恰当地命名为MouseGoggles。在对老鼠的实验中,老鼠在戴上护目镜时似乎对模拟刺激做出了生动的反应。这项创新应该可以让科学家更轻松地进行涉及VR的动物研究。尽管啮齿动物VR的想法听起来很有趣,但它确实有实际应用。理想情况下,VR可以让科学家在更受控制的条件下为老鼠模拟自然环境。不过,目前最常用的设置相当笨重,老鼠通常被放在跑步机上,周围是电脑或投影屏幕。然而,这些屏幕无法覆盖老鼠的整个视野,动物可能需要很长时间才能对VR环境做出反应,甚至根本不会做出反应。康奈尔大学的研究人员认为,他们的MouseGoggles比标准的鼠标VR有了很大的进步。他们没有尝试从头开始创建迷你版OculusRift,而是使用从智能手表和其他现有设备借来的微型低成本部件构建了他们的系统。与其他VR系统一样,将老鼠放在跑步机上来使用MouseGoggles。在接受视觉刺激时,它们的头固定在护目镜上。康奈尔大学博士后研究员、首席科学家马修·艾萨克森(MatthewIsaacson)告诉大学新闻媒体《康奈尔纪事报》:"它肯定受益于黑客精神,即利用为其他东西制造的部件,然后将其应用于新的环境。""事实证明,鼠标VR耳机的完美尺寸显示屏几乎已经为智能手表制造。我们很幸运,我们不需要从头开始构建或设计任何东西,我们可以轻松找到所需的所有廉价部件。"为了确认该系统的可行性,研究人员让小鼠接触各种刺激,同时测量它们的大脑活动并观察它们的行为。通过一系列测试,研究人员发现小鼠确实能够如预期那样看到并对VR做出反应。例如,在一种情况下,他们追踪了小鼠对逐渐靠近的黑色斑点的反应,这种斑点可能代表潜在的捕食者。"当我们在典型的大屏幕VR设置中尝试这种测试时,老鼠根本没有反应,"艾萨克森说。"但几乎每一只老鼠,当它们第一次戴着护目镜看到它时,它们都会跳起来。它们有强烈的惊吓反应。它们似乎真的以为自己受到了迫在眉睫的捕食者的攻击。"该团队的研究成果于本月初发表在《自然方法》杂志上。研究人员表示,为老鼠开发更逼真的虚拟现实技术未来可能会带来各种好处。例如,精确的虚拟现实实验可能让科学家更好地绘制和了解患有阿尔茨海默病的老鼠的大脑活动,特别是与空间导航和记忆相关的区域;它还可能改善测试脑部疾病潜在治疗方法的基础研究。伊萨克森和他的同事并不是最近为老鼠开发虚拟现实系统的唯一研究人员。但他们表示,他们的系统是第一个结合眼球和瞳孔跟踪功能的系统。他们已经在开发一种轻量级的移动虚拟现实设备,可用于老鼠或树鼩等大型啮齿动物。他们还希望在未来的迭代中加入更多升级,比如找到一种模拟味觉和嗅觉的方法。
TrendForce报告估计,2024年全球VR与MR头戴设备的出货量预计将达到约960万台,同比增长8.8%。今年的出货量表现凸显了塑造全球VR和MR生态系统的三大行业趋势:低成本设备的主导地位、从娱乐配件向生产力工具的转变,以及OLEDoS成为高端近眼设备的首选显示技术。预计这三大趋势将在未来几年继续影响全球VR和MR市场。Meta仍是VR和MR设备出货量的全球领导者,2024年的市场份额为73%。主要增长动力是价格实惠的Quest3S(售价仅为299美元),推动出货量同比增长11%。面对VR和MR新应用有限的市场限制,该公司采取了优先考虑实惠价格以吸引消费者兴趣的策略。为此,Meta选择提前发布Quest3S,同时暂停高端QuestPro2的计划,这表明该公司将重点转向经济实惠的设备。索尼的PSVR2在2024年占据第二大市场份额,为9%。尽管索尼努力使用适配器将PSVR2与PC平台整合以拓宽内容生态系统,但有限的功能和应用程序支持阻碍了其性能。因此,年出货量同比下降了25%。AppleVisionPro于2024年首次上市,迅速占领了5%的市场份额,成为VR/MR市场的第三大参与者。然而,销量数据低于苹果之前发布的产品,主要是因为其价格高昂,应用资源有限。TrendForce指出,VisionPro的加入,以及Meta决定加速推出其平价机型并暂停其高端机型,表明实惠的价格仍然是推动消费者采用的关键因素。消费者对价格的敏感度巩固了LCD技术作为VR/MR设备的主要显示技术的地位,市场份额超过80%。AppleVisionPro的推出使VR和MR设备从传统的以消费者为导向的娱乐转向了更广泛的多功能生产力工具。VisionPro正在重新定义VR/MR设备的功能和用例--从文档编辑和虚拟会议到医疗保健和教育领域的高级应用。这种模式转变预计将鼓励其他品牌重新评估自己的VR/MR设备的功能属性,扩大其在消费者和企业市场中的作用。尽管高价位产品销量不佳,但VisionPro成功为用户对VR/MR的期待树立了新标杆,也是业内首款采用OLEDoS显示技术的设备,为行业产品规格和视觉质量树立了新标杆。苹果在硬件设计方面拥有丰富的经验,在智能手机、平板电脑和笔记本电脑方面拥有丰富的专业知识,这使该公司成为VR和MR应用普及和多样化的关键推动者。展望未来,苹果预计将最早在2026年推出其下一代VR/MR设备,并制定了针对高端和主流市场的两款不同型号的战略。高端机型预计将继续采用OLEDoS显示屏技术,分辨率超过3,000PPI,确保出色的视觉体验。苹果可能会考虑从索尼以外的供应商采购零部件以降低生产成本,其中可能包括目前正在扩大产能的中国供应商。对于主流机型,苹果预计将专注于价格敏感型消费者的可负担性和成本效益。该机型的可能显示屏选项包括基于玻璃的OLED显示屏和采用LTPO背板技术的LCD显示屏,这两种显示屏都能在性能和成本之间取得平衡。这种双轨战略将使苹果能够同时瞄准高端和主流市场,从而加强其在全球VR和MR市场的影响力。
创业公司Growl推出了一款革命性的沙袋,其中集成了AI教练和投影技术。这款创新的健身教练将于2025年面向全家人推出。Growl介绍总部位于德克萨斯州奥斯汀的联网健身初创公司Growl最近发布了其首款产品:一款内置AI教练的智能沙袋,将健身训练与增强现实相结合。该公司宣布已从SkipCapital、KimaVentures和前UFC重量级冠军CirylGane等投资者那里获得475万美元的种子资金。据Growl介绍,该系统将高清投影技术与尖端人工智能计算相结合,为家庭健身带来了真人大小的互动教练。多个摄像头以3D形式捕捉用户的动作并提供实时反馈,而红外传感器则将沙袋表面转变为响应式触摸表面。这款壁挂式系统体积小如架子,提供多种锻炼方式,从技术拳击到力量训练和瑜伽。该系统专为全家人设计,适合10岁及以上的人群。AI训练师和虚幻引擎助力沉浸式训练Growl拳击训练器具有以下特点:真人大小的互动训练师,具有人工智能驱动的实时反馈真实的沙袋阻力,适合高强度有氧运动和力量训练基于虚幻引擎的游戏玩法可增加动力适合所有年龄段和技能水平的家庭健身项目3D运动跟踪和EdgeAI提供个性化锻炼建议Growl将于2025年4月上市。该系统将定位于高端市场,48个月计划每月费用为150美元,36个月计划每月费用为190美元,其中包括硬件和订阅费。
ProjectMoohan:三星进军混合现实领域的第一步ProjectMoohan简介ProjectMoohan是三星设计的一款混合现实(MR)头显,于2024年12月与谷歌推出的革命性AndroidXR平台一同宣布。这款头显是三星与谷歌和高通合作的结晶,它结合了最先进的高通Snapdragon芯片、类似AppleVisionPro的时尚设计以及Android操作系统。作为首款专为AndroidXR设计的MR头显,ProjectMoohan肩负着证明三星在扩展现实(XR)领域实力的任务,并向开发者和消费者展示AndroidXR及前沿AI技术如何改变行业格局。截至目前,三星尚未发布关于该头显的任何官方文档。我们只知道它将支持多模态输入、穿透显示功能以及GeminiAI。然而,三星还未透露具体的规格信息,如重量、价格或成像技术。从成像角度来看,我们知道这款头显具有"高分辨率",但具体参数尚不清楚。Moohan的技术规格:初步了解尽管三星没有公布详细的技术规格,但它确实让几位记者试用了这款头显的原型。基于他们的反馈,我们可以对Moohan做一些观察。请注意,在正式发布前,某些特性可能会有所变化。以下是目前已知的规格细节:处理器:高通Snapdragon(可能是XR2+Gen2芯片)镜片:采用Pancake光学方案(虽然可能不如Quest3或VisionPro的镜片优秀)追踪:支持手部追踪(用于交互)、眼动追踪及注视点渲染电池:外接有线电池(类似于VisionPro的设计)控制器:配备控制器,但并非必需操作系统:搭载AndroidXR与GoogleGemini应用支持:支持PlayStore应用商店Moohan的设计与佩戴舒适度虽然我们还没有机会亲自测试这款头显,但已经看到了实物并与一些早期试用者进行了交流。总体来看,三星这款头显的外观介于MetaQuest3和AppleVisionPro之间。它的体积相对较大且材质偏塑料感,但由于采用了外接电池设计,整体重量较轻,不过这也意味着用户需要应对额外的电线问题。Moohan提供了一个可选的遮光罩以进一步隔绝外界光线干扰,还有柔软的额头垫增加佩戴时的舒适度。值得注意的是,VisionPro配有柔软的绑带,而Moohan目前使用的是带有调节旋钮的硬质绑带,这或许能为追求稳定性的用户提供更好的选择。Moohan的前面部分采用了类似护目镜的设计,并覆盖了一层玻璃,但三星并未在这台设备上复制VisionPro的"EyeSight"功能,这对大多数用户来说是一个好消息。此外,得益于内置的眼动追踪技术,Moohan能够自动调整瞳距(IPD),对于需要矫正视力的用户,也可以使用粘贴式的眼镜片插入到Pancake镜片内部。总的来说,我们还无法确定长时间佩戴这款头显是否足够舒适,但其轻量化设计应该会对XR爱好者构成吸引力。通过这些信息,可以看出三星正努力打造一款能够在市场上脱颖而出的混合现实设备,而ProjectMoohan作为这一领域的首次尝试,无疑吸引了众多关注的目光。随着更多细节的逐步披露,相信这款产品将会给我们带来更多惊喜。控制系统与追踪技术正如前文所述,ProjectMoohan头显将支持控制器,但三星并未向任何测试者提供这些控制器的原型。我们尚不清楚它们的具体设计,不过希望它们会像MetaQuest3的控制器那样时尚且符合人体工程学。实际上,默认情况下用户主要通过手部和眼动追踪来与内容互动。使用Moohan时,你可以像操作VisionPro一样用手指控制光标,并通过"捏合"手势选择应用。还可以用手势进行缩放、滚动等操作。借助眼动追踪功能,你可以通过注视图标并做出"捏合"手势来进行选择,而无需抬起手臂--这一点非常贴心。当然,由于支持六自由度(6DoF),你可以在虚拟环境中自由走动,并设置虚拟"防护栏"确保安全。真正让Moohan控制系统脱颖而出的是其向下摄像头的设计(这样你不需要频繁移动手臂)以及在穿透模式下清晰的手部显示效果。根据早期测试者的反馈,这种设计大大减少了运动模糊和像素化现象,使得手部看起来更加逼真。显示质量Moohan采用了类似MetaQuest3和VisionPro的Pancake镜片,我们知道这类镜片能够生成锐利的图像。然而,一些早期测试者认为Moohan的镜片效果不如其他设备出色。虽然我们还不知道具体的分辨率,但测试者表示图像质量非常好,尽管在混合现实穿透模式下画面略显杂乱,这在同类产品中较为常见。如同许多高端头显一样,Moohan也使用了注视点渲染技术,确保你在移动过程中视觉体验保持一致。从早期测试来看,Moohan的视场角(FOV)可能比VisionPro略小,"最佳观赏区域"也因边缘亮度降低而显得更小。不过,测试者称整体沉浸感依然强烈,适当调整IPD可以有效改善这些问题。软件和应用选项Moohan运行的是AndroidXR操作系统,这意味着它可以直接访问GooglePlay商店中的海量应用。此外,Moohan在发布时应该还会自带一系列独特应用,但我们目前还不清楚具体有哪些。如果三星想要与拥有庞大Horizon生态系统的Meta竞争,仅靠简单移植现有的Android应用到XR平台是不够的。苹果在其VisionPro发布会上已经证明了这一策略并不奏效。好消息是,谷歌已经为开发者发布了AndroidXRSDK工具包,Moohan也有自己的SDK。这意味着只要谷歌和三星能够吸引到开发者的注意,他们就有机会在专有应用开发上抢占先机。与此同时,对于测试者来说,现有的应用程序运行得相对良好。用户可以轻松打开各种Google应用,调整大小,并将其放置在房间的不同位置。例如,在GoogleChrome中阅读文本非常清晰,从Google搜索中提取的3D模型看起来也非常棒。你甚至可以用GooglePhotos将2D图片转换成3D,无论最初是用什么相机拍摄的。YouTube应用提供了极佳的沉浸式体验,让用户仿佛置身于视频之中。此外,Moohan还支持在混合现实环境中工作。例如,你可以加载GoogleDocs,并使用连接的蓝牙鼠标和键盘输入内容。如果你需要专注于某项任务,还可以将自己置于一个完全沉浸式的环境中,屏蔽周围的干扰。最大卖点:GeminiAI在XR中的应用尽管三星可能会在未来几个月内公布更多令人惊喜的功能,但目前最让Moohan脱颖而出的是其AI能力。谷歌和三星都认为,人工智能是打造卓越XR体验的关键。借助AndroidXR,Moohan获得了强大的多模态助手Gemini。虽然VisionPro配备了Siri,但Siri只能听懂用户的语音指令,并一次处理一项任务。MetaQuest则搭载了具备更多多模态功能的MetaAI(它可以"看到"你的动作),但这还不够完美。Gemini在Moohan上的表现更加直观。它能够在实时状态下同时观察你的真实世界和虚拟世界。Gemini还具有记忆功能,可以回忆起之前的对话细节,提供更加连贯的用户体验。要激活Gemini,用户只需轻触头显侧面并切换开关即可。在穿透模式下,你可以走近某个物体并向Gemini询问相关信息。例如,你可以指着一张唱片或CD,要求Gemini告诉你这支乐队最受欢迎的歌曲。Gemini还能以视觉结果回答问题。比如,你可以让它带你去意大利,然后它会打开一个3D版的Google地图,让你探索街道。谷歌声称,Gemini甚至可以用AI拼接出场地内部的图像,让你仿佛身临其境。还有一个便捷的"圈选搜索"功能。只需走到某个物体前,按下头显顶部的按钮,用"捏合"手势画一个圈,就可以搜索该物体的相关信息。展望Moohan的未来即便我们现在掌握了大量信息,关于Moohan仍有许多未知数。谷歌和三星相信,随着AI的发展,XR进入了一个新时代,为人们提供了与周围世界及喜爱的内容互动的新方式。显然,他们认为Gemini所带来的直观AI体验将使Moohan成为一款不容忽视的产品。然而,要真正领先一步,三星还需要做更多。利用AndroidXR的灵活性是一个良好的开端,因为它可以确保Moohan在发布时拥有大量有价值且用户友好的应用。从已知的设计和特性来看,Moohan似乎是一款相当出色的高端头显。虽然它在整体视觉质量和功能上可能无法超越VisionPro,但它确实提供了很多相似的功能。更重要的是,我们期待这款头显的价格会比VisionPro更为亲民。总之,三星的ProjectMoohan不仅展示了该公司在XR领域的潜力,同时也彰显了AndroidXR平台的优势。我们相信,谷歌的XR平台将在未来几年重塑市场格局,吸引更多竞争对手加入,为用户提供更多选择。希望三星能够证明这个领域充满机遇,并为新一代XR设备铺平道路。
美国LightFieldLab公司已经开始接受其超高分辨率裸眼3D显示器产品"SolidLight"系列的预订。该公司发布了两款产品:"SolidLight:Holographic"和"SolidLight:Volumetric"。特别是"SolidLight:Holographic",它实现了每平方米100亿像素的超高分辨率,能够在空中投影3D影像。产品的交付预计在2025年。LightFieldLab的SolidLight系列产品是一种无需VR/MR头显等设备即可显示立体影像的显示器技术。"SolidLight:Holographic"可以组合多个面板以满足客户的定制需求,并由多个媒体服务器控制生成完整的全息影像。另一方面,"SolidLight:Volumetric"提供每平方米1亿像素的分辨率,通过单一计算机控制,在全息体积内形成多个图像平面。据公司介绍,物体的运动和光线反射也可以被再现,当观众移动时,物体看起来会像真实的一样变化视角。伴随产品发布,LightFieldLab与搜寻地外文明研究所(SETI)合作,举办了一场仅限邀请的演示活动,利用SolidLight技术模拟了与外星生命的"首次接触"体验。目前,SolidLight的体验可以在该公司位于加利福尼亚州圣何塞的总部进行预约。具体的产品价格尚未公布。LightFieldLab成立于2017年,由曾参与开发3D捕捉系统的Lytro前成员创立。公司获得了包括GatesFrontier、KhoslaVentures在内的知名企业和投资者的支持,如Bosch、Comcast、Corning、HELLA、LG、Samsung、Verizon等。来自日本的NTTDocomoVentures也参与了投资。
市场研究公司IDC公布了2024年第三季度VR/AR设备出货量调查结果。连续两个季度下滑的整体出货量增长了12.8%,表明市场进入了新的增长阶段。尤其是Meta占据了70.8%的市场份额,是增长的推动力。未来,随着谷歌针对XR设备的新操作系统"AndroidXR"的进入,市场竞争预计将加剧。IDC的研究显示,2024年第三季度前五名公司将占据VR/AR耳机市场90%以上的市场份额。领先公司Meta(70.8%份额)开始全面销售其VR/MR一体式耳机"MetaQuest3",并由于内容和宣传效果的增强而增加了出货量。开发"PlayStationVR2(PSVR2)"的索尼(6.7%份额)位居第二,据说其针对PC游戏玩家的开发和促销措施是成功的。接下来是生产空间计算机"VisionPro"的苹果公司、提供包括VR/MR耳机"Pico4Ultra"在内的PICO系列的中国公司字节跳动以及生产AR眼镜的中国公司XREAL。对于未来市场前景,IDC预测"2025年,MR设备出货量将达到770万台,较上年增长21.7%。"特别是,随着谷歌凭借其用于XR设备的新操作系统"AndroidXR"重新进入市场,预计竞争将会加剧。此外,未来18个月,玻璃显示领域的竞争预计将加剧,该领域主要连接智能手机和其他设备,并提供简单的扩展显示和内容镜像。IDC预测,"2025年该领域的单位出货量将增长一倍以上,到2028年年均增长率将达到85.7%"。该公司的研究人员还提到了人工智能与玻璃型显示器之间良好的兼容性。另一方面,成熟的AR设备,例如Meta目前正在开发的AR眼镜原型"Orion","由于先进的技术要求以及电池和显示技术的限制,暂时仍然是一个利基市场",但它预计"到2024年,销量将从2019年的5.9万辆增长到2028年的37.7万辆"。
谷歌正全力以赴重返扩展现实(XR)领域,并且这次的规模更大。虽然它可能还没有准备好展示任何实物产品,但谷歌已经正式公布了其对全新统一AndroidXR生态系统的愿景。谷歌不仅仅是要向公众推出重新构思的AR眼镜(尽管它确实似乎正在通过ProjectAstra项目开发智能眼镜),也不是简单地投资新的混合现实头显。相反,谷歌正在为一个庞大的XR产品线奠定基础。借助AndroidXR,谷歌希望为从即将推出的三星XR头显到智能眼镜和融合了人工智能的扩展现实应用等一系列自有和第三方体验提供动力。AndroidXR是什么?基础知识AndroidXR是由谷歌开发的全新扩展现实操作系统,基于AndroidOS。该系统于2024年12月宣布,标志着一个统一生态系统的新起点,将为无数设备提供支持,从VR头显和混合现实眼镜到增强显示(如标准智能手机上的显示)。谷歌显然不是扩展现实领域的新人--尽管GoogleGlass的失败表明该公司在硬件方面并不总是表现出色。即使是在硬件市场之外,谷歌也已经为公司提供了访问AR应用程序开发套件和沉浸式软件的机会。然而,AndroidXR的发布表明,谷歌现在认为是全面投入XR领域的最佳时机。它不仅想自行建造新设备或应用程序;它还希望建立一个新的生态系统,让所有领先的开发者都能从中受益。目前,谷歌不仅与三星和高通合作,还与索尼、MagicLeap和Unity等众多重量级企业合作。AndroidXR与Gemini:AI/XR连接谷歌认为现在是XR革命的最佳时机的一个原因在于,它可以为开发者提供一系列由AI驱动的工具。随着谷歌对其Gemini系列产品的精炼,它有机会为XR空间中的开发者提供多模态和自然语言处理能力,以创造更丰富的沉浸式体验。在AndroidXR操作系统内,开发者和合作伙伴不仅仅是获得构建应用程序和运行头显的工具。他们还能完全接触到使计算机互动更加自然和吸引人的AI进展。Gemini将深入集成到AndroidXR生态系统的每一个方面,允许合作伙伴创建并交付更沉浸式的"空间计算"体验。谷歌表示,AI技术将使每个为AndroidXR开发的应用程序和设备更加直观和强大。用户可以通过语音和手势与应用程序互动,而无需使用物理控制器。此外,每个AndroidXR设备都将配备一个智能助手,用户可以与其对话以提问、完成任务等。操作系统和开发者套件AndroidXR生态系统的核心是谷歌的软件。如上所述,谷歌不仅仅是在与供应商合作开发新硬件(下文会有更多介绍)。AndroidXR的目标是创建一个"充满活力的"开发者和设备制造商生态系统。为了启动这一旅程,谷歌已经发布了AndroidXRSDK的开发者预览版。开发者预览版支持开发者已经熟悉的现有工具,例如ARCore和AndroidStudio。谷歌表示,这将使开发者能够摆脱传统屏幕的限制,利用空间面板、音频和丰富的3D元素。Android堆栈还包括OpenXR,这是一个专注于便携性和多功能性的强大跨平台API。谷歌宣布,这个解决方案将具备一系列世界感知能力,如AI驱动的手部网格、复杂的光照估算能力和详细的深度纹理,以及针对笔记本电脑等设备的新"追踪能力"。谷歌还将在AndroidXR中加入"PlayStore",让用户可以访问他们喜爱的应用程序。例如,可以在扩展现实中尝试GoogleChrome、Photos、Maps和Meet。还将有专门版本的应用程序,如YouTube和GoogleTV,用于沉浸式娱乐。除此之外,开发者还可以利用其他工具包。例如,Unity是首批支持AndroidXR的公司之一,开发者可以使用Unity的所有技术为该操作系统创建体验。Unity表示,它将为AndroidXR提供全面的支持,包括文档访问和针对新开发者的优化。首款AndroidXR头显:三星的ProjectMoohan从硬件角度来看,我们将在明年首次看到AndroidXR能为可穿戴设备带来什么--根据谷歌的说法,届时三星将推出一款混合现实头显。经过数月关于三星即将推出的头显的传言和不确定性后,这款与高通和谷歌合作设计的产品终于揭开了神秘面纱,名为"ProjectMoohan"。得益于GoogleGemini,这款新头显将具备最先进的显示屏、XR穿透功能和自然多模态输入。我们目前对于这款头显的具体特性了解不多。然而,据早期测试者称,这款头显的感觉和外观类似于MetaQuestPro,视觉质量堪比AppleVisionPro。据谷歌介绍,就像VisionPro一样,用户能够在虚拟环境中"完全沉浸"或与现实世界内容结合之间轻松切换。此外,当轻按头带侧面时,用户可以立即访问各种GooglePlay应用程序并与GeminiAI助手互动。谷歌表示,用户可以就自己所见与AI机器人进行对话或用它来控制设备的某些部分。展望未来:扩展现实的新时代目前,AndroidXR仍处于早期阶段,即使是开发套件也仅处于初步"预览"阶段。然而,谷歌显然正在与其他合作伙伴共同努力,加速基于此平台的设备发布。很快,我们将有机会通过三星的ProjectMoohan头显探索该平台的混合现实优势。我们甚至可能在明年看到三星推出基于同一操作系统的增强现实眼镜。另外,借助AndroidXR,谷歌可能会加倍押注自己的AR战略,未来某个时候向公众发布ProjectAstra眼镜版本。其他合作伙伴和产品无疑也将陆续加入。谷歌已经透露它正在与索尼、MagicLeap和Lynx等公司合作。AndroidXR的推出标志着谷歌在这个新领域的重大迈进。展望AndroidXR智能眼镜AndroidXR不仅仅是为混合现实头显开发者设计的解决方案。谷歌还在进一步深入增强现实(AR)智能眼镜领域。我们已经看到证据表明,该公司正在通过ProjectAstra项目开发自己的专有眼镜。借助AndroidXR,谷歌希望为其合作伙伴公司提供多种方案来打造他们自己的智能眼镜。公司表示,该操作系统将特别设计以支持未来各种类型的智能眼镜。结合AndroidXR和Gemini技术,企业可以设计出像MetaRay-Ban那样的AI助手眼镜版本。Astra眼镜的原型已经展示了这些眼镜如何让用户轻松使用Gemini进行问路或在移动中翻译内容。谷歌称,带有AndroidXR的眼镜只需轻触即可享受Gemini的所有优势。这意味着用户可以更加自信地探索世界,而不必完全依赖智能手机。当然,开发者还可以利用AndroidXR为具有增强现实能力的眼镜提供动力。不过,关于这些眼镜的具体外观以及哪个合作伙伴会首先发布基于AndroidXR的眼镜规格,我们目前的信息还很有限。谷歌已经提到它们正在进行真实世界的原型测试,这可能意味着我们将在2025年的某个时候开始看到采用谷歌操作系统的新型眼镜。AndroidXR对未来行业的影响为什么AndroidXR对扩展现实(XR)领域如此重要?简单来说,谷歌采取了一种强有力的方法重新进入XR市场。它不仅是在创建自己的专有软硬件,更是在创造一个新的XR竞争格局。谷歌正在为新一代计算奠定基础,为XR市场带来更多的多样性。凭借其开放统一的平台,无论是XR头显、眼镜还是应用程序,谷歌都准备好挑战像Meta这样的主导公司。对于用户而言,这意味着未来会有更多"选择"。我们将从众多供应商那里获得不同种类的头显和智能眼镜,同时还能继续享有我们熟悉的、舒适的App体验。对于开发者而言,谷歌提供了一个便捷而强大的途径进入XR市场。任何人都可以使用熟悉的Android框架和工具为广泛的设备构建体验。总体来说,AndroidXR将为一系列新设备铺平道路--而不仅仅是推出一两款新产品。这一策略已经为谷歌带来了丰厚的回报。仅考虑一下有多少手机、电视、平板电脑甚至汽车使用了Android操作系统的版本就知道,如果谷歌能够在XR市场复制这一成功,那么机会将是无限的。展望未来:XR的新纪元目前,AndroidXR仍处于早期阶段,甚至开发套件也仅处于初步"预览"阶段。然而,谷歌显然正与其他合作伙伴共同努力,加速基于此平台的设备发布。不久后,我们将有机会通过三星的ProjectMoohan头显探索该平台的混合现实优势。我们也可能在明年看到三星推出基于同一操作系统的增强现实眼镜。此外,随着AndroidXR的推进,谷歌可能会加倍投入自己的AR战略,并在未来某个时间向公众发布ProjectAstra眼镜版本。其他合作伙伴和产品无疑也将陆续加入。谷歌已经透露它正在与索尼、MagicLeap和Lynx等公司合作。AndroidXR的推出标志着一个全新的设备和体验集合的开始,这可能极大促进消费者和企业用户的采用。有了AndroidXR,2025年有望成为XR空间中创造力、竞争和创新的重要一年。我们迫不及待地想看看接下来会发生什么。
2024年5月的GoogleI/O大会揭示了这家科技巨头未来产品路线图的一些有趣见解。公司主要聚焦于AI领域,推出了新版的GoogleGemini、用于构建AI助手的工具等。通过ProjectAstra项目,Google展示了其对未来智能助手的愿景。ProjectAstra简介根据Google的说法,Astra是一个"日常生活中的AI代理",它能利用手机的摄像头和语音识别软件帮助用户完成日常任务。然而,真正让ProjectAstra概念令人兴奋的地方(至少对于扩展现实粉丝而言)在于它可以为新一代的Google智能眼镜提供动力。在I/O大会上,Google展示了这款助手在一个原型智能眼镜上的使用情况--但并未透露太多关于即将推出的智能眼镜的具体信息。现在,我们获得了更多关于GoogleXR路线图的信息。以下是您需要了解的关于ProjectAstra及其正在测试的潜在智能眼镜的信息。ProjectAstra:谷歌的通用助手ProjectAstra是谷歌在2024年I/O大会上推出的一个研究原型,旨在创建一个面向日常用户的"终极"AI助手。Astra只是过去一年中谷歌众多AI公告之一。在I/O2024上,谷歌还推出了Gemini的新版本,如GoogleGemini1.5Flash,并展示了一个新的AI视频生成工具(GoogleVeo),该工具正逐步向VertexAI平台上的开发者开放。尽管从表面上看,ProjectAstra似乎并没有带来特别新颖的东西--许多其他公司也在试验AI助手,例如微软的Copilot。但是,作为一款AI解决方案,Astra具有某些独特的优点,首先是它的多模态能力。Astra可以像人类一样"看到"图像并听取人类的声音,这意味着人们可以通过多种方式与机器人互动。更重要的是,Google展示了人们如何与Astra互动。用户不仅可以通过智能手机访问这个助手,而且一些I/O大会的测试人员还展示了Astra在一副原型智能眼镜上的实际应用。这使得很多行业分析师推测,Google可能正在开发自己的MetaRay-Ban眼镜版本--另一款内置AI助手的智能眼镜。ProjectAstra:延迟与更新最初,谷歌承诺将在2024年的某个时候通过GoogleGemini应用程序让用户开始尝试Astra。但在第三季度财报电话会议上,谷歌CEOSundarPichai表示发布时间表已推迟到2025年。Pichai未具体说明推迟的原因,仅表示公司正在努力使解决方案更加直观,并希望在2025年开始向用户提供Astra体验。谷歌团队已经分享了一些关于如何改进Astra体验的见解。截至2025年12月,Astra在理解多种语言方面变得更加有效,如法语和泰米尔语,可以混合这些语言,并能够理解口音。此外,Astra还可以访问Google的应用程序,如Maps、Lens和Search,并拥有长达十分钟的会话记忆,以实现更自然的对话。借助新的流媒体和音频理解能力,Astra现在可以像人类对话的速度一样快速理解语言。关于原型眼镜我们知道什么我们对谷歌智能眼镜的外观、功能以及是否会向公众发布仍然知之甚少。但我们确实知道,谷歌正在测试搭载AndroidXR操作系统的ProjectAstra眼镜原型。在Gemini2.0发布的前一次新闻发布会上,GoogleDeepMind团队的产品经理BiboXu表示,一小部分来自Google可信测试者计划的成员将测试ProjectAstra智能眼镜。这些眼镜很可能与2024年I/O大会上展示的相似,它们将采用新的AndroidXR操作系统,该系统还将为三星的XR头显(ProjectMoohan)提供动力,后者预计明年发布。谷歌还分享了一段演示视频,展示了其原型眼镜如何通过AndroidXR和ProjectAstra完成各种任务。例如,原型眼镜可以翻译用户看到的海报或标志,甚至可以帮助用户找到家中丢失的物品,或者无需查看手机即可阅读短信。谷歌何时发布新款智能眼镜?值得注意的是,虽然谷歌确实在测试ProjectAstra智能眼镜,但这并不意味着我们一定会看到该公司推出的新款眼镜。谷歌显然对AR智能眼镜的概念感到兴奋,即使在ProjectAstra网站上也有专门的部分强调AI助手如何为智能眼镜提供动力。为Astra助手创建一对智能眼镜是有道理的。谷歌自己的产品研发团队表示,眼镜是用户在移动中与人工智能互动的理想"免手持可穿戴设备"。然而,谷歌的可信测试者曾试验过许多从未向公众发布的公司原型。通过测试ProjectAstra,谷歌可能只是为了获取更多关于如何为第三方创造更好解决方案的见解。毕竟,AndroidXR不仅是帮助谷歌进入XR领域的工具,它还是一个开源解决方案,旨在为无数合作伙伴(包括三星)提供创新的AI和AR开发工具。谷歌发言人已经告诉多家出版物,公司没有公布ProjectAstra原型眼镜的消费者发布时间表。我们也没有关于眼镜技术(除了使用的操作系统)或特性的任何实质性信息。展望谷歌与AR的未来谷歌正在与选定用户测试ProjectAstra眼镜,并通过AndroidXR构建其XR生态系统,这一事实令人兴奋。然而,谷歌是否真的会制造并发布一款增强现实眼镜仍然是未知数。谷歌已经表示,智能眼镜和头显是"下一代计算"的一部分,特别是智能眼镜在过去一年中受到了广泛关注。然而,虽然Meta的Orion原型眼镜似乎是为了推动Meta特定的AR硬件发展路径,谷歌的Astra原型可能有着非常不同的目的。有很好的机会谷歌是在为了研究目的而使用这些眼镜,并不打算自行制造任何硬件。Astra可能会成为谷歌正在构建的支持第三方合作伙伴的全面AndroidXR生态系统的一部分。如果谷歌的ProjectAstra最终出现在智能眼镜中,我们可能会首先看到它出现在三星和其他公司制造的解决方案中。毕竟,三星似乎已经在开发一款智能眼镜,也是最早与谷歌合作使用AndroidXR平台开发其头显(ProjectMoohan)的公司之一。对于继续利用谷歌专有技术为其智能眼镜服务,这对三星来说是有意义的。目前,期待新"谷歌可穿戴设备"的用户可能不应过于期待。好消息是,谷歌肯定会将其技术带入XR市场--该公司可能只是在硬件方面采取更为间接的角色。
VR52网成立于2015年,平台提供VR头显、AR眼镜、配件外设、厂商、测评、行业资讯、游戏与应用、展会活动等。