10月29日,据《科创板日报》报道,全国首个脑机接口未来产业集聚区已正式落地上海虹桥国际中央商务区。该集聚区由上海市、闵行区及虹桥商务区三级联动推进,正从市级和区级层面整合政策资源,加速打造具有全球影响力的脑机接口产业高地。这一布局标志着中国在下一代神经科技领域的战略落子进入实质推进阶段。脑机接口(Brain-ComputerInterface,BCI)已被写入《中共中央关于制定国民经济和社会发展第十五个五年规划的建议》,成为国家重点布局的"六大未来产业"之一,凸显其在科技创新与医疗变革中的关键地位。为响应国家战略,上海市于2025年1月率先发布《上海市脑机接口未来产业培育行动方案(2025-2030年)》,明确了未来五年的发展路线图。2027年目标:突破临床应用,构建创新生态根据《行动方案》,到2027年,上海将实现以下关键目标:半侵入式脑机接口产品在国内率先实现临床应用;侵入式脑机接口研发取得实质性突破;推动5款以上侵入式/半侵入式产品完成临床试验;面向失语、瘫痪患者,实现部分语言表达与运动功能的恢复;引进和培育5家以上具备核心技术研发能力的自主创新企业,以及10家以上产业链上下游骨干企业,初步构建脑机接口创新生态。2030年愿景:打造全球创新高地,重塑脑疾病治疗展望2030年,上海力争实现:脑机接口产品全面进入临床应用阶段;产业链核心环节实现自主可控;成为全球脑机接口产品创新高地。届时,系列脑机接口设备将进入医疗器械注册审批流程,用于:帮助失明患者部分恢复视觉能力;帮助瘫痪患者恢复触觉感知与全身运动功能;为难治性癫痫、重度抑郁症等脑部疾病提供全新治疗手段。
发表于《新英格兰医学杂志》(TheNewEnglandJournalofMedicine)的一项临床试验结果显示,一种名为PRIMA的电子眼植入系统,结合AR眼镜,已成功帮助因严重眼疾失明的患者恢复"阅读视力",标志着视觉修复领域迎来突破。这项研究为目前尚无治愈手段的晚期干性年龄相关性黄斑变性(dryAMD)患者带来了全新希望。38名患者参与,84%恢复读写能力试验在全球17家医院(包括英国著名的Moorfields眼科医院)开展,共纳入38名因地理性萎缩(GeographicAtrophy,GA)导致单眼中央视力丧失的患者。GA是干性AMD的晚期形式,此前没有任何疗法能恢复已丧失的视力。研究结果显示,在植入PRIMA系统并使用12个月后:81%的患者实现了具有临床意义的视力改善;84%的患者能够借助该系统识别字母、数字或单词,具备基本阅读能力;平均而言,患者在视力表上能多看清五整行,而部分患者术前甚至无法看到视力表上的任何一行;手术未对患者的周边视力造成显著影响,安全性良好。将一块2毫米x2毫米的微芯片植入患者视网膜下方。PRIMA系统如何工作?微型芯片+AR眼镜的"视觉重建"该系统由脑机接口与神经工程公司ScienceCorporation开发,核心由两部分组成:无线视网膜下植入芯片:一块仅2mm×2mm的微型芯片,通过手术植入视网膜下方,替代受损的感光细胞。定制AR眼镜:眼镜内置摄像头,可捕捉外部视觉信息,并将图像转换为近红外光脉冲,投射到植入芯片上。芯片接收到光信号后,将其转化为电脉冲,刺激残留的视网膜神经细胞,信号再通过视神经传至大脑,最终被解读为视觉图像。患者需经过康复训练,学习"解读"这些信号,重建视觉认知。"开启人工视觉新时代"伦敦大学学院(UCL)眼科研究所副教授、Moorfields眼科医院视网膜专家MahiMuqit教授(本研究联合作者)表示:"在人工视觉的历史上,这代表着一个新时代。失明患者首次真正实现了有意义的中央视力恢复--这在以前从未实现过。"他特别强调,PRIMA植入手术可在两小时内由任何经过培训的视网膜外科医生完成,这一标准化流程为未来大规模临床应用铺平了道路。何时能普及?商业化尚需时日尽管成果振奋人心,但研究团队并未公布PRIMA系统的商业化时间表。目前结果仅为迈向监管审批(如FDA、CE认证)的重要一步,整个流程通常需要数年时间。该研究由德国波恩大学FrankHolz博士牵头,获ScienceCorporation及Moorfields国家健康研究所生物医学研究中心支持。PRIMA系统的成功,不仅是神经工程与AR技术融合的典范,更首次证明了重度视力丧失患者可恢复功能性中央视力。未来,随着技术优化与成本降低,此类"视觉假体"有望为全球数百万盲人带来重见光明的可能。
MetaPlatforms于近日公布了2025年第三季度财务业绩。数据显示,公司本季度实现营收512.42亿美元,同比增长26%,远超市场预期,展现出核心业务的强劲势头。然而,净利润为27.09亿美元,同比大幅下降83%,主要原因是计入了一笔一次性税收支出。扎克伯格:AI与AI眼镜将引领"最激动人心的几年"首席执行官马克·扎克伯格在财报电话会上表示,本季度"对我们的业务和社区来说都很强劲",并展望未来:"我们正处于公司历史上最激动人心的几年之一。"他特别强调了公司在人工智能和AI智能眼镜领域的领先地位。扎克伯格透露,MetaSuperintelligenceLabs(超级智能实验室)进展顺利,已取得良好开局。他重申,AI眼镜是Meta未来战略的核心方向之一,公司正"处于这一领域的前沿"。RealityLabs持续增长,Quest3S推动硬件销售负责XR与元宇宙业务的RealityLabs部门在第三季度实现营收4.7亿美元,高于去年同期的2.7亿美元,延续了增长态势。增长主要得益于Quest3等VR设备的持续销售以及AR/VR生态的扩展。不过,首席财务官SusanLi指出,预计第四季度RealityLabs营收将同比下降。原因在于:去年第四季度发布了新款Quest3S并提前计入假日季出货,而今年同期没有新硬件发布,导致同比基数较高。加大AI投入,资本支出上调至720亿美元Meta正大力投资人工智能,以驱动广告业务创新、提升用户参与度,并创造全新服务。CFO表示,这些投入将为2026年及以后的营收增长提供强劲动力。在资本支出方面,Meta将2025年全年支出预期从此前的650-700亿美元上调至700亿至720亿美元,主要用于构建AI基础设施。公司预计,2026年的资本支出和总运营支出将进一步增加,反映出对AI长期发展的坚定承诺。战略聚焦:AI驱动增长,XR长期布局尽管净利润短期承压,Meta的整体业务基本面依然稳健。公司正通过两大引擎推动未来增长:人工智能:深度整合AI至广告、推荐系统与内容生成,提升效率与用户体验。RealityLabs:持续投入VR、AR与MR技术,尤其将AI眼镜视为下一代计算平台的关键突破口。随着AI能力的增强与XR硬件的演进,Meta正致力于打造一个融合物理与数字世界的"智能互联体验"生态。
据BusinessInsider报道,Meta已对RealityLabs部门进行结构性调整,将HorizonOS从原有的"元宇宙"业务组中剥离,升格为与"元宇宙"和"可穿戴设备"并列的一级业务部门这一调整标志着Meta在XR操作系统层面的战略升级,凸显其将HorizonOS打造为开放平台、与谷歌AndroidXR直接竞争的决心。组织架构调整:OS独立,领导层换防在此次重组前,RealityLabs的两大核心部门为:元宇宙(Metaverse):负责Quest头显、HorizonOS平台、HorizonWorlds等第一方软件。可穿戴设备(Wearables):主管Ray-Ban和Oakley智能眼镜、AR眼镜研发及Meta神经腕带(NeuralBand)。如今,HorizonOS被独立出来,由RyanCairns继续领导,并直接向MetaCTO安德鲁·博斯沃思(AndrewBosworth)汇报。而原"元宇宙"部门负责人VishalShah已调任至Meta超级智能实验室(MetaSuperintelligenceLabs),负责AI产品与跨部门整合。新任"元宇宙"部门负责人GabrielAul将带领团队专注于VR与移动端的高质量体验开发,而HorizonOS团队则聚焦于构建更强大的软硬件基础平台。元宇宙优先级未变,但OS战略更清晰博斯沃思在内部备忘录中强调:"元宇宙工作的优先级没有改变,它仍然是全公司的重点。"他指出,Meta已向行业证明了其技术路线的正确性,正吸引越来越多的竞争对手入局,因此必须"持续巩固来之不易的优势"。他还提到,VR正从游戏向娱乐、生产力和社交连接等更广泛场景扩展,而AI创作工具正在加速虚拟世界的构建。此次组织调整旨在优化执行效率,确保"元宇宙"与"HorizonOS"团队在保持战略协同的同时,能更专注各自核心使命。对标AndroidXR,争夺XR生态主导权值得注意的是,谷歌的AndroidXR系统已随三星GalaxyXR首发,并计划于2026年登陆更多设备。Meta此举被广泛解读为明确将HorizonOS定位为AndroidXR的直接竞争者。通过将OS独立运作,Meta可更灵活地推进平台标准化、开发者生态建设和跨设备兼容性,为未来真正的AR眼镜和通用空间计算平台铺路。此外,近期Quest系统更新v83中,已将"世界"(Worlds)从应用库中独立为单独标签页,这一UI变化也被视为"OS与内容分离"战略的外在体现。平台化加速,Meta的XR野心不止于头显此次重组并非削弱元宇宙,而是将底层操作系统提升至与应用生态同等重要的战略地位。通过独立HorizonOS,Meta正从"VR设备制造商"向"空间计算平台提供商"转型,为迎接下一代计算平台的全面竞争做好准备。
美国帕洛阿尔托机器人初创公司1X近日展示了其最新人形机器人Neo,一款旨在未来自主完成家庭任务的智能助手。尽管目前Neo尚不具备完全自主能力,但公司正通过"人类远程操控+AI学习"的方式,加速其神经网络在真实家居环境中的训练。这款重66磅(约30公斤)、外形穿着毛衣风格外壳的机器人,现阶段仍需依赖操作员介入。用户可通过预约"专家模式"(ExpertMode),由佩戴Quest3头显的人类操作员远程操控Neo执行复杂任务,如从冰箱取水、装载洗碗机或清理厨房台面。这一过程不仅完成即时任务,更重要的是为Neo的AI系统积累现实世界的行为数据。能力有限,安全与隐私设限据1X创始人兼CEOBerntBørnic介绍,Neo目前无法处理过重、高温或尖锐物品,短期内难以胜任烹饪或搬运家具等高风险任务。在隐私方面,Neo支持设置禁区,限制进入家中特定区域,并可对摄像头画面中的人脸进行模糊处理。但Børnic强调,机器人的智能化程度与用户数据共享程度密切相关:"你分享得越多,它就越有用。"他将此关系比喻为"大姐姐原则"--Neo是来帮助你的"大姐姐",而非监视你的"老大哥"。"我想明确一点:如果你在2026年购买这款产品,就意味着你接受了这份社会契约,"Børnic在接受《华尔街日报》采访时坦言,"没有你的数据,我们就无法让产品变得更好。"2026年交付,售价2万美元或月付500美元在演示中,Neo并未实现任何任务的完全自主运行。但Børnic表示,到明年正式发货时,Neo将能"自主完成家中大部分事务",且性能会随着数据积累快速提升。目前,Neo已开放预订,需支付200美元可退还押金,提供灰色、驼色和黑色三种配色。预计将于2026年在美国率先交付,售价为一次性支付2万美元,或每月500美元订阅。
瑞典多所大学的研究团队近日联合开发出一种名为"视网膜电子墨水屏"(RetinalE-InkDisplay)的新型显示技术。该技术采用"超像素"(Metapixels)结构,像素宽度仅约560纳米,实现超过25,000PPI的超高像素密度,远超当前主流VR/AR设备(如苹果VisionPro和三星GalaxyXR)约4000PPI的水平。研究团队指出,尽管微型OLED目前主导着近眼显示市场,但新开发的电子墨水屏有望在尺寸、重量和分辨率方面实现突破,为未来超紧凑型VR头显和AR眼镜提供全新技术路径。图片由《自然》杂志提供纳米级超像素:反射式结构,低功耗高对比该显示屏的"超像素"由氧化钨纳米圆盘构成,通过电还原反应可逆地在绝缘态与金属态之间切换,从而实现对亮度与颜色的纳米级控制。其反射式结构依赖环境光成像,仅需一层比头发丝还薄的材料即可呈现鲜艳色彩与深邃黑色,光学对比度达约50%,并支持HDR显示。由于无需主动发光,该技术具备极低功耗特性,特别适合对续航和散热要求严苛的可穿戴设备。研究结果显示,该技术可应用于视频透视式VR/MR头显及光学透视式AR眼镜,为轻量化设计提供可能。图片由《自然》杂志提供距实用仍有距离:刷新率与驱动挑战待突破尽管前景广阔,该技术目前仍处于实验室阶段,距离商业化应用尚有诸多挑战。当前原型机的全彩视频刷新率略高于25Hz,远低于沉浸式VR所需的60Hz门槛,更无法与VisionPro高达120Hz的刷新率相比。研究团队正致力于提升刷新率、扩展色域、优化稳定性与使用寿命,并探索降低工作电压和更换电解质材料的方案。此外,驱动如此高密度像素所需的TFT阵列与图形处理能力也是一大难题--尽管显示单元本身功耗极低,但图像处理负载仍可能成为系统瓶颈。若关键技术瓶颈得以突破,这项"视网膜电子墨水屏"有望推动下一代VR/AR设备向更小、更轻、更高分辨率的方向迈进。
韩国先进微显示技术企业RAONTECH近日宣布,正式推出其最新'P13'型号0.13英寸LCoS(硅基液晶)显示模组。该产品以"极致微型化"为核心卖点,旨在突破现有微显示技术在尺寸与功耗上的瓶颈,为下一代轻薄型智能眼镜提供关键显示组件。P13模组尺寸仅为6.25毫米×4.65毫米,据称较RAONTECH此前同分辨率产品缩小约60%。这一突破使得光机模组体积可压缩至1立方厘米以下,首次实现完整光机系统完全嵌入智能眼镜的镜腿内部,为消费级AR眼镜的时尚化与日常化佩戴扫除关键障碍。高像素密度+单板全彩,提升AR显示性能与光学效率基于3微米像素工艺,P13提供800×800分辨率,像素密度超过同尺寸LEDoS(LEDonSilicon)方案的两倍,可呈现更精细、锐利的图像,满足AR应用对高密度视觉信息呈现的需求。在色彩表现方面,P13采用单面板全彩设计,与传统需三块LEDoS面板配合X-Cube棱镜的复杂光路相比,大幅简化了光学架构。RAONTECH表示,该设计在保证高质量色彩还原的同时,显著降低了光机系统的复杂度与体积,有助于提升量产可行性与良率。此次P13的发布,也进一步丰富了RAONTECH的全彩微显示产品线。此前,该公司已推出P18LEDoS面板,而P13的LCoS技术路径则在分辨率和像素密度上展现出更强竞争力。已进入客户开发阶段,或亮相CES2026RAONTECH透露,全球多家客户已开始基于P13开发下一代光机模组与AR眼镜产品,原型设备预计将在包括CES2026在内的国际大型展会上亮相。这表明该技术已从实验室走向产业化落地的关键阶段。随着P13的推出,RAONTECH正加速在AR微显示领域的布局,其技术方案有望成为推动消费级AR眼镜从"可穿戴"向"日常穿戴"演进的重要驱动力。
Meta近日宣布,其新一代研究用智能眼镜ProjectAriaGen2将于2026年第二季度起向全球符合条件的第三方研究机构出货。此举旨在推动机器感知与人工智能技术的发展,为未来AR眼镜和个人AI助手奠定技术基础。作为Meta在AR硬件与感知系统领域的重要研究平台,ProjectAria自2020年推出初代设备以来,已广泛用于公司内部AR感知系统的训练与验证。2024年,Meta首次向全球27个国家的300多个实验室开放AriaGen1设备,助力学术界与产业界开展人机交互、环境理解等前沿研究。随着Gen2的推出,Gen1的研究申请通道现已关闭。AriaGen2全面升级:感知、算力与舒适性同步进化2025年2月发布的AriaGen2在感知能力、佩戴舒适性、交互设计和设备端计算性能方面均实现显著提升。新设备搭载更强大的传感器阵列,包括更高分辨率的摄像头、改进的惯性测量单元(IMU)和增强的音频采集系统,支持更精准的手部与眼动追踪、环境建模与声学定位。值得一提的是,AriaGen2集成了Meta自研的低功耗协处理器,可在设备端实时运行感知算法,减少对云端计算的依赖,提升数据处理效率与隐私安全性。尽管两代Aria设备均未配备显示单元--与已上市的MetaRay-Ban智能眼镜不同--但其核心定位是作为"感知实验室",为未来AR设备积累关键技术。提前释放白皮书与试点数据集,助力研究生态为迎接2026年的规模化部署,Meta同步发布了两项关键资源:《AriaGen2设备白皮书》和《AriaGen2试点数据集》。白皮书详细介绍了Gen2的人体工学设计、传感器配置、低功耗架构,并对比了两代设备的技术差异。试点数据集则包含Gen2实际采集的多模态数据样本,涵盖手眼协同、传感器融合与3D环境建图等场景。数据集中还提供了Meta自研算法的输出示例,如手物交互识别、3D边界框检测,以及与NVIDIA合作的FoundationStereo模型生成的深度估计结果。
MagicLeap与Google近日宣布将双方的战略技术合作延长三年,并在沙特阿拉伯举行的未来投资倡议(FII)大会上联合展示了一款平视显示器智能眼镜的原型机。该设备被定位为硬件厂商可参考的设计方案,旨在降低高质量AR眼镜的开发门槛。此次合作的延续标志着两家公司进一步整合各自优势:MagicLeap提供光学与硬件专长,而Google则贡献其XR技术平台与软件生态。GoogleXR副总裁ShahramIzadi表示:"MagicLeap在光学、显示系统和硬件方面的expertise,对推动我们AndroidXR眼镜概念的落地至关重要。他们多年AR开发经验,正帮助塑造下一代可穿戴设备的未来。"从消费市场折戟到企业转型与技术授权MagicLeap曾是2010年代最受瞩目的AR初创公司,获得超10亿美元融资,并于2018年推出面向消费者的首款AR头显MagicLeapOne。然而,其2300美元的高昂售价与受限的视场角导致市场反响冷淡,首半年仅售出6000台,远低于预期。2019年底,公司转向企业市场,推出售价3000美元的商用套装。2022年发布的MagicLeap2进一步聚焦企业应用,以更高的视场角、更亮的显示和独特的动态分段调光技术,超越同期HoloLens2。如今,MagicLeap似乎已不再专注于自有品牌设备的迭代,而是转向技术输出,将其核心的波导光学技术授权给第三方厂商。MagicLeap2新原型:融合Google与MagicLeap核心技术本次展示的HUD眼镜原型结合了Google旗下收购的Raxium公司开发的microLED显示屏,以及MagicLeap自研的波导光学模组。Google强调,MagicLeap在波导设计上的精密工艺,为显示带来了"罕见的清晰度与稳定性",使视觉体验更加自然。尽管此前Google已在TED和I/O大会上展示过与三星合作的原型,但此次采用MagicLeap波导的设计被认为在视觉质量上更具优势。Izadi称:"这款原型最突出的特点是佩戴时视觉感受的自然性。"值得注意的是,这并非MagicLeap3的预览。相反,它标志着MagicLeap正从设备制造商转型为关键技术供应商。谷歌的AR生态野心:挑战MetaRay-Ban该参考设计的推出,意在吸引硬件厂商基于Google的软件平台(如AndroidXR、GeminiAI、GoogleMaps)和MagicLeap的光学方案,快速推出自有品牌AR眼镜,直接对标已上市的MetaRay-Ban智能眼镜。尽管MetaRay-Ban已实现音频、拍照和AI交互等基础功能,但Google在AI能力(Gemini优于MetaAI)和地图导航覆盖上具备明显优势。此外,有韩国媒体报道称,三星计划于明年推出搭载GoogleHUD技术的智能眼镜,成为潜在的首发合作伙伴。目前尚无厂商正式确认将推出该类产品,但Google正通过技术整合与生态布局,为AR眼镜市场的下一阶段竞争做好准备。
Adobe旗下实验性项目ProjectPulsar现已作为测试版应用登陆三星GalaxyXR,标志着创意生产力工具正式迈入空间计算领域。这款专为社交内容创作者设计的"空间特效"(SpatialFX)与3D合成工具,允许用户将立体文字、图形和动态效果无缝嵌入手机或GalaxyXR拍摄的3D视频中,实现以往需专业VFX技能才能完成的视觉效果。零基础创作,一键生成"悬浮"视觉根据GooglePlay商店的官方描述,ProjectPulsar的目标是让创作者"在几分钟内制作出影棚级的3D内容",且无需任何视觉特效经验。用户只需导入视频,选择3D元素(如文字、贴图),系统便会自动分析场景深度、光照与阴影,并将元素自然地"放置"在三维空间中,营造出漂浮于现实之上的沉浸式视觉效果。在三星GalaxyXR发布前的演示中,可以观察到一名代表使用头显拍摄现场画面后,通过ProjectPulsar添加了悬浮文字。经过数分钟后台处理(期间用户可进行其他操作),最终视频呈现出文字仿佛真实存在于场景中的效果--尽管部分片段仍存在边缘穿模或遮挡判断不准确的问题,显示出算法仍在优化阶段。智能光照匹配,提升真实感ProjectPulsar的核心技术亮点在于其对场景光照的动态模拟。它能够识别视频中光源的方向与强度,并为添加的3D元素生成匹配的阴影与高光,使其看起来像是真正被环境光所照亮,而非简单叠加的图层。这一能力显著提升了合成内容的视觉可信度,尤其适用于TikTok、InstagramReels等强调"视觉冲击力"的社交平台。空间计算创意工具的跨平台竞赛初现目前,ProjectPulsar仅在GalaxyXR上提供测试,尚未登陆AppleVisionPro或Meta头显。尽管Adobe已为VisionPro推出FireflyAI图像生成应用(支持M2芯片设备),但类似ProjectPulsar这种深度集成空间感知与实时合成的视频编辑功能,尚未在苹果生态中出现。随着搭载更强算力芯片的VisionProM5型号发布,以及Meta在手势交互与开放生态上的持续投入,未来几大头显平台在"空间化内容创作"领域的竞争将愈发激烈。ProjectPulsar的出现,或许正是拉开"人人都能做AR/VFX"的大众化创作时代序幕的关键一步。
在2025年第三季度财报电话会议上,全球眼镜巨头EssilorLuxottica披露,其整体营收同比增长11.7%,其中超过4个百分点的增长来自其"可穿戴设备"(Wearables)部门--该部门目前主要由与Meta合作的智能眼镜系列以及Nuance音频技术构成。这意味着智能眼镜已成为这家传统光学巨头增长的最关键引擎。Meta合作矩阵成型,销量爆发式增长自2021年推出初代Ray-BanStories以来,EssilorLuxottica与Meta的合作不断深化,目前已推出六款智能眼镜产品:Ray-BanStories(已停产)第一代Ray-BanMetaOakleyMetaHSTN第二代Ray-BanMetaOakleyMetaVanguardMetaRay-BanDisplay(带AR显示功能)这一系列产品的市场表现远超预期。根据公司此前披露:截至2024年底,仅Ray-BanMeta系列销量已突破200万台;到2025年第二季度,智能眼镜整体销量相较去年同期增长超过三倍,被公司形容为"表现极为出色"。产能提前翻倍,2026年目标1000万台为应对持续攀升的需求,EssilorLuxottica在2024年2月宣布,计划到2026年底将智能眼镜年产能提升至1000万台。而在最新的财报会议上,首席财务官StefanoGrassi透露,由于业务"进一步加速",公司预计将早于原计划实现这一产能目标。Grassi同时确认,智能眼镜业务已在绝对意义上实现盈利,并透露约20%的消费者选择为其智能眼镜配备处方镜片,凸显其作为日常穿戴设备的实用属性。Meta重金入股,联盟关系深度绑定2025年初,Meta向EssilorLuxottica投资30亿欧元,获得其3%的股权,并在此前已达成"延续至下一个十年"的长期合作协议。这一战略合作使双方在产品设计、光学技术、制造与零售渠道上形成深度协同,巩固了其在消费级智能眼镜市场的绝对领先地位。市场领先但挑战将至:谷歌、苹果虎视眈眈尽管Meta与EssilorLuxottica的联盟目前领跑市场,但竞争正迅速逼近:谷歌在2025年5月I/O大会上宣布,将与WarbyParker和GentleMonster合作开发搭载GeminiAI的智能眼镜,并计划与KeringEyewear(拥有Gucci、SaintLaurent等品牌授权)展开合作。韩媒6月报道称,谷歌正接近完成对GentleMonster4%股权的收购。苹果据传也在研发类似产品,分析师MarkGurman与郭明錤预测,苹果智能眼镜或将于2027年初发布。
在持续强化SnapOS开发者工具链之后,Snap正将重心转向消费端内容建设。继此前公布CommerceKit、SnapCloud、EyeConnect等一系列底层能力后,公司在LensFest2025上宣布多项重磅内容合作,首次明确展示其AR眼镜平台在消费者发布时(2026年)的内容储备,试图以高质量IP与跨平台热门应用打消市场对"AR眼镜实用性"的疑虑。三大重磅内容亮相,覆盖游戏、IP与实用场景《SynthRiders》正式上线来自KlugeInteractive的热门XR节奏游戏《SynthRiders》现已登陆SnapOS。这款在MetaQuest、AppleVisionPro、PSVR2和PCVR平台广受好评的作品,首次适配轻量级AR眼镜。尽管当前开发者版Spectacles录制时长受限(仅30秒),但实机演示已展现出流畅的打击反馈与空间沉浸感。值得注意的是,游戏中虚拟物体能将光影自然投射至现实家具表面--这得益于SnapOS提供的连续场景网格(continuousscenemesh),使虚拟内容与真实环境实现物理级融合。《星球大战:全息记录历史》沉浸叙事登场工业光魔(ILM)旗下XR工作室ILMImmersive打造的《星球大战:全息记录历史》(StarWars:HolocronHistories)同步上线。玩家将由一名"原力学徒"引导,体验三大经典篇章:绝地与西斯的对决、Nightsisters的警示寓言,以及守护者Whills的激励故事。这是ILM继《VaderImmortal》《银河边缘传说》后,首次深度适配轻量化AR眼镜,标志着高规格影视级XR内容向可穿戴设备迁移。《降世神通:最后的气宗》互动训练上线玩家可跟随安昂(Aang)学习御气之术,通过头部转向与手势识别释放空气冲击波,击倒虚拟目标。该Lens结合体感交互与IP叙事,强化AR眼镜在轻度健身与角色扮演场景中的潜力。实用类Lens即将登场:Figma与Tripadvisor"即将推出"Snap预告,设计协作平台Figma与旅游服务Tripadvisor的定制Lens也将在未来上线。尽管具体功能尚未披露,但外界推测可能涵盖:FigmaLens:通过手势在空中浏览设计稿、进行轻量标注或团队评审;TripadvisorLens:实时叠加景点信息、餐厅评分或导航指引,实现"所见即所得"的旅行辅助。此举显示Snap正推动AR眼镜从娱乐向生产力与生活服务延伸。瑜伽翻译内容库初具规模,为高价消费产品提供价值支撑目前,SnapOS内容生态已涵盖:游戏娱乐:《SynthRiders》《LegoBricktacular》影视IP:《星球大战》《降世神通》健康生活:Yoga(瑜伽指导)、Translation(实时翻译)SnapCEO埃文·斯皮格尔(EvanSpiegel)曾形容消费版Spectacles将具备"真正的AR能力,体积更小、重量更轻、功能更强"。尽管预计售价将达数千美元,但通过提前构建由头部IP、跨平台热门应用与实用工具组成的内容矩阵,Snap正努力证明:这不仅是一副眼镜,而是一个值得投资的下一代移动计算平台。
罗技(Logitech)为AppleVisionPro打造的Muse空间触控笔(LogitechMuseSpatialStylus)现已在Apple官网在线商店开放预购,售价130美元,预计从10月22日(下周三)起陆续发货,与新款M5VisionPro头显同步交付。这款触控笔最早于今年6月的WWDC25上亮相,其对VisionPro的支持随visionOS26系统更新正式上线(该版本已于上月稳定发布),标志着VisionPro在精准输入与创意应用方面迈出了重要一步。首款"空间"创作笔?设计与功能解析罗技将Muse称为"同类中首款真正的空间配件"(theveryfirstspatialaccessoryofitskind),尽管其外观与功能与罗技一年前为MetaQuest推出的MXInk空间触控笔极为相似。核心功能与技术:6自由度(6DoF)空间追踪:通过笔身内置的红外LED,由VisionPro头显的摄像头阵列进行精准定位,实现空中三维空间的实时追踪。压力感应笔尖:可在真实桌面、纸张等物理表面上进行2D书写与绘图,笔尖压力变化可映射为线条粗细或透明度。内置触觉反馈马达:提供震动反馈,增强操作感知。USB-C充电:支持快速充电,满足长时间使用需求。与Quest版MXInk的主要区别:特性LogitechMuse(VisionPro)MXInk(Quest)按钮设计2个齐平式按钮(无凸起)3个凸起按钮主按钮力感应(Force-Sensitive)力感应充电扩展无触点充电针脚支持连接MXInkwell磁吸充电座适配系统visionOSMetaQuestOSMuse的齐平按钮设计更符合VisionPro简洁、一体化的美学风格,而缺少触点针脚意味着它不支持专用充电座,需直接通过USB-C线充电。创作场景:从纸上笔记到空中雕塑Muse的设计理念是无缝衔接物理与虚拟创作:2D模式:用户可在真实桌面上书写笔记、绘制草图,系统通过笔尖压力与空间定位,将动作精准映射到虚拟应用中。3D模式:在空中挥动画笔,通过力感应按钮调节笔刷大小、强度或颜色,实现真正的三维绘画与建模。苹果与罗技共同宣布,以下visionOS创意应用将在"未来数周内"陆续支持Muse:Crayon:极简风格绘图工具dopplbyInteraptix:动态交互设计平台SketchPro:专业3D草图应用SpatialAnalogue:模拟传统媒介的数字画布生态扩展:与M5VisionPro同步登场Muse的上市时机恰逢苹果推出M5芯片版VisionPro(10月22日发货),新机型在图形性能、刷新率(支持120Hz)和佩戴舒适性上均有提升,进一步强化了其作为高端创作设备的定位。Muse的加入,补足了VisionPro在精细输入设备上的空白,使其在设计、建筑、教育等专业场景中的实用性大幅提升。
先临三维近日宣布推出两款新型无线3D扫描仪--EINSTARRockit与EINSTAR2。两款产品均主打便携性与高精度,旨在降低3D扫描的技术门槛,拓展其在工业检测、数字艺术、AR/VR内容创作及个性化定制等领域的应用边界。EINSTARRockit:掌上级无线扫描,新手也能快速上手EINSTARRockit定位为面向专业人士的"袖珍级"3D扫描仪,最大特点是完全无线化设计。设备无需外接电源或数据线,操作时只需对准目标物体即可启动扫描,数据通过内置Wi-Fi实时传输至终端,极大提升了移动作业的灵活性。该设备采用蓝色激光与红外VCSEL(垂直腔面发射激光器)相结合的混合光源系统,能够在90帧每秒的高速下,精准捕捉深孔、光滑表面等传统扫描难以处理的区域,同时保留高分辨率几何细节。内置500万像素彩色摄像头,可同步还原物体表面的纹理与真实色彩。值得一提的是,EINSTARRockit支持自动识别物体轮廓,无需贴设标记点即可完成扫描,大幅简化操作流程,即便是初学者也能快速掌握。其应用场景覆盖小型零部件检测、文物数字化、虚拟偶像建模、AR/VR资产生成等。EINSTAR2:性能全面升级,60秒完成人体扫描作为初代EINSTAR的迭代产品,EINSTAR2在保持420克轻巧机身的基础上,实现了多项关键性能提升。设备配备可更换电池,支持连续工作三小时,真正实现无电源束缚的室内外自由扫描。其核心扫描能力显著增强,搭载17条蓝色激光线,数量超过前代两倍,可在短时间内完成大范围高精度数据采集,尤其擅长还原锐利边缘与细微结构。配合红外VCSEL技术,即使在强光户外环境下,依然能保持稳定的数据捕获能力。针对高难度扫描对象,如深黑色或复杂几何形状的物体,EINSTAR2表现流畅。官方数据显示,其可在约60秒内完成完整人体扫描,并同步获取高质量彩色纹理信息。这一效率使其在服装定制、医疗康复、数字人建模等领域具备强大竞争力。让3D扫描走向"人人可用"尽管两款产品在定位与性能上各有侧重,但均延续了EINSTAR系列"让任何人、在任何地点都能灵活进行3D扫描"的核心理念。新品与现有的EINSTAR及EINSTARVEGA共同构成完整产品线,覆盖从入门用户到专业工程师的多样化需求。
Meta近日宣布,Quest开发者现可主动申请将其游戏纳入Horizon+订阅服务,无需等待官方邀请。此举标志着Meta在构建内容生态方面进一步向开发者开放,尤其为中小型独立团队提供了新的商业化路径。与此同时,Meta正式推出"独立游戏目录"(IndieCatalog)测试版,作为其8美元/月Horizon+订阅服务的第三大组成部分,与现有的"每月可兑换游戏"和"精选游戏目录"(GamesCatalog)并列,形成分层内容体系。三级内容架构:从头部大作到独立精品目前,Horizon+订阅服务主要包含两大核心内容:每月可兑换两款完整游戏,以及一个定期轮换的精选游戏库。用户在订阅期间可无限畅玩这些内容,即便取消订阅后重新加入,此前兑换的游戏仍可继续访问。新增的"独立游戏目录"则聚焦于体量更小、更具创新性的作品。这一测试性目录的设立,不仅丰富了订阅服务的内容多样性,也为尚未达到头部标准但品质过硬的独立游戏提供了曝光机会。严苛准入门槛:品质与稳定性成硬指标Meta为两个目录设定了明确的准入标准,体现出对用户体验的高度重视。精选游戏目录(GamesCatalog)要求更为严格:必须为HorizonStore付费应用上架时间超过12个月商店评分4星及以上至少50条用户评价近90天内月均基础游戏销售额达2.5万美元以上入选后需承诺3至12个月的订阅期相比之下,独立游戏目录(IndieCatalog)门槛更为亲民,专为成长期作品设计:同样需为付费应用上架时间满6个月拥有至少50名月活跃用户商店评分4星以上至少10条用户评价近90天月均基础销售额在50至3,500美元之间承诺3个月订阅期,可择优延长Meta明确表示,存在"严重审核问题或社区规范争议"、"频繁崩溃、严重Bug或交互缺陷"、"冗长无法跳过的教程或剧情"的游戏将被拒之门外。这一筛选逻辑表明,Horizon+的目标用户很可能是新购入Quest设备的消费者,Meta希望他们通过订阅服务快速体验到稳定、易上手且富有乐趣的内容,避免因糟糕体验而流失。收益共享机制:订阅分成或超单品销售开发者参与Horizon+后,将根据游戏在订阅期内的表现,分享整体订阅收入。Meta声称,表现优异的游戏"每月获得的收入可能超过其基础销售所得",尽管具体分成算法尚未公开。这一模式为独立开发者提供了新的变现可能--即使单款游戏售价较低、销量有限,但若用户停留时长高、活跃度好,仍有机会通过订阅池获得可观回报。目前,开发者可通过Meta开发者仪表板提交申请,正式开启通往Horizon+生态的通道。
10月8日,谷歌推出一项基于人工智能的"虚拟试穿"新功能,旨在解决网购服饰时难以试穿的核心痛点。该功能已率先上线,用户可通过AI生成的逼真图像,直观查看服装、鞋履等商品穿在自己身上的实际效果,从而更高效地做出购买决策。一键试穿:从搜索到预览的无缝衔接整个操作流程极为简洁。用户只需在谷歌搜索、谷歌购物或谷歌图片中查找心仪的商品,点击商品图片后选择"试穿"按钮,随后上传一张个人全身照,系统即可快速生成专属的虚拟试穿图像。支持的品类涵盖上衣、下装、连衣裙以及鞋子等多种服饰类型。该功能依托谷歌先进的AI图像生成模型,能够精准理解人体结构与姿态,并还原面料的关键物理特性--如弹性、垂坠感与纹理细节。用户可借此尝试不同颜色、款式和搭配方案,获得接近真实的视觉反馈,显著降低因尺寸或版型不符导致的退货风险。注重隐私与使用规范在数据安全方面,谷歌强调了对用户隐私的保护机制。上传的照片仅用于即时生成试穿结果,不会被长期存储或收集生物特征数据,也不会用于AI模型的训练。所有照片信息与用户账户分离处理,且系统会自动删除可能包含的个人信息或敏感内容,确保数据流转过程中的安全性。为获得最佳试穿效果,谷歌建议用户上传符合以下标准的全身照:清晰展现从头到脚的完整身形,画面中无其他人物干扰,光线充足、背景整洁,并穿着贴身衣物以准确呈现体型轮廓。功能边界与使用提示需要明确的是,生成的试穿图像仅为视觉参考,不构成对实际尺码或合身度的保证。此外,该功能目前暂不支持购物广告(推广类商品)的试穿体验,仅适用于自然搜索结果中的商品。随着消费者对个性化、沉浸式购物体验的需求日益增长,谷歌此次推出的虚拟试穿功能,不仅是AI技术在电商场景中的一次重要落地,也为未来"所见即所得"的数字购物模式提供了新的可能性。
VR52网成立于2015年,平台提供VR头显、AR眼镜、配件外设、厂商、测评、行业资讯、游戏与应用、展会活动等。