根据一份由字节跳动官方链接发布的用户注册表单,Valve旗下SteamLink服务即将登陆pico系列VR头显。该表单明确开放了Pico4Ultra、Pico4以及PicoNeo3Link三款设备的内测报名通道,暗示Valve正计划全面覆盖字节跳动旗下主流消费级VR产品线。目前,SteamLink的VR版本仅在MetaQuest系列设备上通过Horizon商店独家提供。自2023年底上线以来,这款应用凭借"零成本、无线直连PCSteamVR"的便捷体验,迅速成为Quest用户连接高端PCVR内容的核心工具--无需额外付费,即可实现近乎即时的串流体验。技术共通性铺路:OpenXR让跨平台成为可能事实上,这一合作早有端倪。早在去年11月,VR爱好者Luna便发现,即便未经官方支持,SteamLink应用也能通过侧载(sideload)方式在Pico设备上运行,仅存在"少量小瑕疵"。其背后原因在于:Meta的HorizonOS与PicoOS均为基于Android的操作系统,并共同支持OpenXR这一开放标准API--而这正是SteamLink应用实现跨平台运行的技术基石。今年1月,另一位资深VR开发者BradLynch及其Discord数据挖掘团队进一步发现,SteamVR后台已悄然集成Pico4与Pico4Ultra的控制器图标。这一举动被视为官方适配进程中的关键一步,表明Valve已在系统层级为Pico设备做好准备。不止Pico:SteamLink或将覆盖全系AndroidVR设备更值得关注的是,Lynch团队还在代码中挖掘出HTCViveFocus3与ViveFocusVision等独立式头显的相关引用信息。这强烈暗示,Valve的长期目标可能是将SteamLinkVR应用扩展至所有主流Android-based独立VR平台,构建一个跨品牌、跨厂商的开放串流生态。随着硬件兼容层的逐渐统一,未来用户无论持有哪家品牌的VR设备,只要系统支持OpenXR,便有望无缝接入Steam庞大的PCVR内容库。VisionPro会是下一个目标吗?一个值得深思的问题是:苹果VisionPro是否也在Valve的潜在支持名单之中?尽管visionOS并非Android系统,但近期发布的visionOS2.0已原生支持PSVR2的Sense控制器(索尼将单独销售),显示出苹果对第三方VR外设的开放姿态。目前,用户虽可通过iPad版SteamLink在VisionPro上串流传统2D游戏,但若想体验PC级VR内容,则必须依赖开源项目ALVR。相较之下,ALVR缺乏SteamLink那种从客户端到服务端的完整闭环集成,在稳定性、延迟与用户体验上仍有明显差距。若未来SteamLink能登陆visionOS,无疑将极大提升VisionPro在硬核VR玩家中的吸引力。而这一切的前提,或许是Valve与苹果之间能否达成某种技术与生态层面的共识。
高通携手比利时新锐,突破XR感知瓶颈今日,总部位于布鲁塞尔的智能感知与数据洞察技术公司VoxelSensors宣布,将与高通技术公司(QualcommTechnologies,Inc.)展开合作,将其自主研发的"单光子主动事件传感器"(SPAES)3D感知技术,与高通的SnapdragonXR平台进行深度优化整合。这一合作直指当前扩展现实(XR)与机器人领域的一大痛点:如何在复杂光照条件下实现高效、低延迟的深度感知,同时大幅降低功耗。VoxelSensors表示,其SPAES技术可在维持性能的同时,实现高达10倍的功耗降低和更低的延迟,为"物理AI"(PhysicalAI)的发展提供关键支持。从"上帝视角"到"人类视角":物理AI的数据革命所谓"物理AI",其核心在于让机器从人类的"第一视角"(egocentricview)理解环境与行为。这意味着传感器不仅要"看得清",更要"看得懂"人眼所见的世界。传统深度传感器在强光、弱光或快速移动场景下常表现不稳定,且功耗过高,难以支撑全天候佩戴的智能眼镜。VoxelSensors的SPAES技术正是为解决这些问题而生。它能够在极端光照条件(如强逆光、昏暗室内)和低功耗约束下,提供可靠的深度感知,从而扩展传感器的运行边界。更重要的是,它所采集的"人类视角"数据,质量更高,有助于训练出更贴近真实使用场景的物理AI模型。深度整合SnapdragonAR2,瞄准2025年量产此次合作的重点,是将SPAES技术与高通SnapdragonAR2Gen1平台进行集成。优化后的解决方案将提供低延迟、高灵活性的3D主动事件数据流,为下一代AR眼镜的3D感知与眼动追踪系统提供底层支持。VoxelSensors强调,这一联合优化方案预计将于2025年12月向部分客户和合作伙伴开放。这标志着该技术正从实验室走向商业化落地的关键阶段。"我们很高兴能与高通技术公司合作,"VoxelSensors首席执行官JohannesPeeters表示,"经过五年的技术打磨,我们的愿景正通过与SnapdragonXR平台的优化得以实现。我们的传感器非常适合下一代3D感知和眼动追踪系统,配合我们的推理引擎捕捉用户的'自我中心'数据,我们看到了在XR设备上实现真正个性化AI代理交互的巨大潜力。"高通的野心:让AR眼镜像普通眼镜一样全天佩戴高通对此次合作寄予厚望。其XR业务高级副总裁兼总经理ZiadAsghar表示:"为了推动XR产业的扩展,高通致力于打造更小、更快、更节能的设备。我们相信,消费者愿意全天佩戴的轻量化AR智能眼镜将成为现实。VoxelSensors的技术有望在显著降低功耗的同时提供更高性能,这正是实现这一愿景所需的关键。"这番表态清晰地揭示了高通的战略方向:功耗与体积的极限压缩,是AR设备从"可玩"走向"可用"、最终实现"常戴"的核心门槛。VoxelSensors的低功耗SPAES技术,恰好补上了这一关键拼图。结语:为"全天候AR"铺就感知基石随着VoxelSensors与高通的联手,AR设备的"全天候佩戴"愿景又近一步。通过将超低功耗的3D感知技术与领先的XR计算平台深度整合,未来AR眼镜不仅能更智能地"看见"世界,还能以极低的能耗持续运行,真正融入用户的日常生活。当感知技术不再成为续航和体积的拖累,属于消费级AR的"iPhone时刻"或许才真正开始。
THEONNEXT:一场面向未来战场的系统性布局本月,先进国防技术提供商THEON宣布在"THEONNEXT"计划下推进一系列重大投资与战略合作,旨在全面扩展其在数字战场和增强现实(AR)防御技术领域的核心能力。该计划聚焦于AR/VR系统、微型显示器及无线连接技术,目标是为下一代单兵装备提供集成化、数字化的解决方案。这一系列动作不仅涉及资本投入,更包含生产布局重构与跨区域技术整合,标志着THEON正从传统光电设备供应商向"智能士兵系统"综合解决方案提供商转型。"我们通过THEONNEXT计划对Varjo的战略投资,深化了在欧洲创新生态中的布局,使THEON获得独特的视觉显示与投影技术能力,"THEON首席执行官ChristianHadjiminas表示,"这些开创性协议确保了我们在便携式光电领域的领先地位。我们非常自豪,这些安排正推动美国与欧洲更紧密地协作,共同开发下一代单兵系统。"四箭齐发:构建AR/VR与通信技术闭环1.联手Kopin,打造欧洲AR制造枢纽THEON将向美国微型显示器企业KopinCorporation投资1500万美元,其中包括700万美元可转换贷款,以及800万美元收购Kopin旗下苏格兰子公司49%的股权。该子公司将成为一家新成立的欧洲合资企业基地,专注于生产AR系统与microLED显示屏。同时,THEON的美国子公司将把工业运营转移至Kopin位于弗吉尼亚州的工厂,该工厂将成为THEON在美国的制造中心,负责AR增强型及未来数字光电产品的生产。未来五年,THEON将投入800万美元支持该平台的技术开发。2.绑定eMagin,锁定OLED微显示供应链THEON与OLED微型显示器制造商eMaginCorporation签署了一项为期两年且可续期的供应协议。eMagin是军用航空、夜视、AR/VR等近眼成像应用领域OLED微显示的主要供应商,目前为THEON的A.R.M.E.D.产品线提供大部分OLED显示屏。此次协议进一步巩固了关键元器件的供应链安全。3.携手ALEREON,集成抗干扰无线通信THEON与美国超宽带(UWB)无线技术提供商ALEREON达成合作,将后者已在美国陆军中部署的安全、抗干扰通信协议集成到其单兵系统中。该技术将用于实现士兵设备间的高速、安全连接,提升战场态势感知与协同能力。相关产品将在希腊生产,并面向欧洲与中东地区分销。4.投资Varjo,加码高保真VR/MR训练THEON向工业级虚拟与混合现实(VR/MR)硬件与软件提供商Varjo进行500万欧元的战略投资。双方将合作开发用于国防训练与模拟的沉浸式系统,结合THEON在国防系统集成方面的专长与Varjo在XR硬件和软件上的优势,推动高保真训练与仿真应用的发展。Varjo表示,这笔投资将增强其交付军用级沉浸式体验的能力,同时也支持THEON在THEONNEXT框架下的数字化扩展战略。跨大西洋协同,布局未来战场此次系列合作初步覆盖美国、英国、芬兰、希腊,并计划逐步扩展至德国和比利时--后者正是THEON正在建设的欧洲热成像/数字技术中心所在地。这一布局不仅强化了THEON在数字防御技术领域的路线图,更深化了欧美之间在高端国防工业上的协作网络。从微显示硬件、AR系统集成、安全通信到VR训练平台,THEON通过资本与技术双轮驱动,正在构建一个覆盖"感知-交互-通信-训练"的完整数字士兵技术生态。这场系统性布局,或将重新定义未来单兵作战系统的智能化边界。
曾几何时,RecRoom是元宇宙概念最炙手可热的代表之一。这家成立于2016年的社交VR平台,在2021年完成1.45亿美元融资后,估值一度高达35亿美元,成为XR领域最具价值的公司之一。它不仅是用户生成内容(UGC)的早期倡导者,更是业内首批实现创作者经济闭环的平台--用户可通过出售自己设计的房间、道具等获得游戏内代币,并兑换为真实收入,其商业模式与Roblox高度相似。然而,就在近日,这家昔日明星公司宣布进行大规模裁员,比例接近员工总数的一半。根据联合创始人CameronBrown和NickFajt在官方博客中的声明,以及向GeekWire提供的信息,此次裁员后,RecRoom员工人数已缩减至100余人。离职员工将获得三个月薪资补偿、六个月医疗保险,以及保留工作电脑的权利。一场曾被寄予厚望的"全民创作"实验,为何走到这一步?"全平台创作"的野心,压垮了现实承载力RecRoom的困境,源于其过于宏大的愿景:打造一个横跨VR、PC、主机和移动端的"通用创作平台"。初衷是让"任何人、在任何设备上都能创造内容",但现实却背道而驰。尽管PC和VR端的顶级创作者持续推动平台增长,但在移动端和主机端推广创作工具的努力却收效甚微。更严重的是,这些性能较弱的设备产生了海量内容,但质量普遍偏低,优化不足,大量充斥平台。"虽然我们在移动端和主机上看到了创作行为,但这些设备始终无法产出能真正吸引其他玩家互动的优质内容。"Brown在博客中坦言,"我们试图用'MakerAI'等手段弥合差距,却反而激怒了那些真正有影响力的创作者。"技术压力随之而来。团队不得不投入大量资源开发审核工具和流程,以应对数百万低质内容的洪流。而要让这些内容在所有设备上流畅运行,成了"巨大的技术挑战和负担"。大多数创作者缺乏优化能力,而平台也未能提供足够工具支持。"我们的愿景合理,却被规模压垮了。"Brown反思道。从"人人皆可创造"到"只服务顶级创作者"面对财务困境与战略失焦,RecRoom做出了痛苦的转向:放弃"全民创作"的乌托邦理想,转而聚焦于少数高产出、高收益的核心创作者。"这些创作者已经驱动了大部分增长和收入。"Brown指出,"今年7月,玩家在用户生成内容上的支出创下新高,创作者收入也达到历史峰值。这一板块实际在稳健增长,但高度集中于PC端--因此,我们的UGC战略将聚焦于此。"公司明确表示,并未放弃UGC,但将"从'人人皆可创造'转向服务最优秀的创作者"。未来,RecRoom将通过提升PC端创作工具、举办更多精选活动、推广优质内容,以及减少低效更新,来重塑平台生态。这并非RecRoom首次裁员。早在2025年3月,公司已裁撤16%员工,当时管理层就强调此举为控制成本、确保长期生存。彼时面临的挑战包括游戏市场增长放缓、利率上升及融资环境恶化。如今,这一轮更剧烈的调整,标志着RecRoom从"广泛包容"向"精英导向"的战略收缩。一个曾试图让所有人成为创造者的平台,最终选择向现实低头,重新定义自己的边界。
在显示技术与AI算力交汇的关键节点,深科技企业HayloLabs宣布了一项重大战略举措:收购英国MicroLED显示制造商PlesseySemiconductors。此次收购不仅标志着全球MicroLED产业格局的重塑,更预示着光计算(OpticalComputing)技术正加速走向商业化落地。HayloLabs同时承诺,将在未来五年内向英国投资超过1亿英镑,用于扩大Plessey在普利茅斯(Plymouth)的制造能力,并扩充其工程人才团队,巩固英国在全球先进半导体制造中的地位。Plessey:全球少数"端到端"MicroLED制造平台被收购方Plessey拥有270名员工,是全球极少数具备全集成化MicroLED研发与制造能力的企业。其平台覆盖从芯片设计、工程开发到批量生产的完整链条,被誉为"英国半导体工程的明珠"。Plessey首席执行官KeithStrickland表示:"HayloLabs的收购将加速Plessey的商业化进程,推动变革性的MicroLED与光计算技术走向全球市场。我们正专注于扩大在普利茅斯的制造版图,并强化我们的工程人才储备。"MicroLED:下一代显示技术的核心MicroLED(微型发光二极管)是一种将微米级LED阵列直接集成到显示面板的技术。据Plessey介绍,其尺寸之小,约50个MicroLED可并排横跨一根人类头发。这种技术带来革命性优势:更高亮度与对比度更长寿命更低功耗更小体积这些特性使其成为AR/VR头显、智能眼镜、车载显示、高端消费电子等对显示性能要求苛刻场景的理想选择。苹果、Meta、三星等科技巨头均在积极布局MicroLED技术,以期突破当前OLED的物理极限。超越显示:光计算(OpticalComputing)的潜力爆发更值得关注的是,MicroLED的制造原理正被应用于一个更具颠覆性的领域--光计算(OpticalComputing)。在这一范式中,数据通过光信号而非电子在芯片中传输与处理,核心单元称为"光处理器"(OpticalProcessingUnits,OPUs)。与传统硅基芯片相比,光计算具备:更快的运算速度更低的发热量更高的能效比尤其在处理AI大模型、矩阵运算等高负载任务时,光计算有望突破"算力瓶颈"与"功耗墙",成为下一代AI基础设施的关键技术。Plessey强调,其技术平台正致力于将光计算从实验室推向可规模化、可商业化的现实应用,为AI驱动的轻量化、可穿戴设备提供底层支持。HayloLabs:深科技的"造舰者"HayloLabs由深科技投资机构HayloVentures创立,专注于MicroLED、光计算及光互连技术的商业化。其CEO兼联合创始人DavidHayes称:"这是英国科技的决定性时刻。Plessey拥有全球最先进的MicroLED平台,其效率领先业界,更是全球极少数能提供'端到端'设计与制造服务的企业,其技术与人才实力超越全球任何竞争对手。"联合创始人ClaireValoti补充道:"此次收购旨在赋能未来--让AI驱动的设备真正实现轻量化、低功耗、可穿戴。英国完全有能力引领而非追随全球计算的下一波浪潮。"地方支持与产业意义此次投资也受到当地政界欢迎。普利茅斯及英格兰西南部的议员们认为,这笔资金将显著推动先进制造业发展,并创造大量高技能工作岗位,为区域经济注入新动能。
2025年8月,芬兰高端XR头显制造商Varjo宣布,获得希腊军事成像系统制造商THEON的500万欧元(约合580万美元)少数股权投资。这笔交易不仅是一次资本注入,更标志着欧洲军工与沉浸式技术两大领域的深度合流。此次投资以可转换贷款形式完成,并附带追加500万欧元的期权。更重要的是,双方已达成战略合作伙伴关系,将在多个产品与业务层面展开协同,共同推进"数字国防技术"的边界。从夜视仪到XR头显:一场军工生态的"升维"布局THEON成立于1997年,是欧洲领先的军用夜视、热成像及光电ISR(情报、监视、侦察)系统供应商,其产品广泛应用于特种部队、装甲车辆与边境安防。然而,随着战场环境日益数字化,单纯"看得见"已不再足够--士兵需要"沉浸式感知"与"增强决策能力"。这正是THEON推出"THEONNEXT"战略的初衷:跳出传统成像设备,向数字士兵系统与AR驱动的战场感知平台转型。此次投资Varjo,正是该战略的关键落子。通过合作,THEON将获得Varjo在超高分辨率显示、人眼级视觉保真度与混合现实光学系统方面的核心技术能力,为其下一代军用AR头盔与训练系统提供"视觉大脑"。Varjo的"回归":从消费市场折返军用赛道对Varjo而言,这笔投资来得恰逢其时。2023年底,公司推出首款面向消费者的VR头显VarjoAero,试图拓展市场边界。然而,市场反响未达预期,公司随即宣布将重心重新聚焦于企业级与国防领域。2024年,Varjo发布XR-4系列头显,包括标准版(5990美元)、FocalEdition(9990美元)以及专为军事与政府机构设计的XR-4SecureEdition(售价1.8万至3.2万美元),全面强化安全认证、低延迟与物理遮光设计,专攻高保密性任务训练与模拟。更早前,Varjo还宣布将于2026年起停止对旧款XR头显的技术支持,进一步释放资源,专注高端细分市场。此次THEON的投资,无疑为Varjo的"企业回归"战略提供了资金与行业背书的双重支持。正如VarjoCEOTimoToikkanen所言:"我们从一开始就致力于打造全球最先进的军用VR/XR系统。THEON在防务领域的深厚经验,正是我们扩大影响力的关键。"技术互补:当"看得见"遇上"沉浸感"双方的合作潜力远不止于资本层面:THEON拥有军用级成像系统的定制能力与欧洲防务网络;Varjo则掌握人眼级分辨率(单眼3K以上)、高动态范围与精准眼动追踪等"沉浸式realism"核心技术。未来,二者或将联合开发:集成热成像与夜视功能的军用AR头盔;支持多光谱感知的混合现实战场指挥系统;基于真实地形数据的超高保真战术训练模拟器。欧洲军工科技的新联盟值得注意的是,THEON的"数字转型"不止于Varjo。其"THEONNEXT"计划还包括:向美国/英国XR显示厂商Kopin投资1500万美元;与美国eMagin签订多年显示模组供应协议;联手美国超宽带无线技术公司ALEREON,开发低延迟战场通信系统。这一系列动作,勾勒出一个以THEON为核心的欧洲数字防务创新生态。而Varjo的加入,正为其提供了最关键的"视觉沉浸"拼图。
2025年8月21日,全球领先的智能影像品牌Insta360正式推出其GO系列全新旗舰产品--Insta360GOUltra。这款超小型运动相机以"方寸之间,小出强大"为理念,重新定义了便携影像的性能边界。即日起,产品已在京东、天猫、品牌官方商城等全平台正式开售,标准套装售价2598元起。极致小巧,性能跃升GOUltra延续了GO系列标志性的"小方块"设计,机身重量仅约53克,轻巧无感,搭配内置磁吸系统,可轻松固定于衣物、头盔、背包等多种位置,实现真正解放双手的第一人称视角拍摄。尽管体积微小,其影像性能却实现跨越式升级:1/1.28英寸大底传感器:感光面积较前代GO3S提升高达221%,大幅提升画质与动态范围。5纳米AI芯片:算力提升50倍,支持4K/60fps超高清视频录制,画面流畅细腻。PureShot夜景模式:通过AI智能降噪、亮度还原与动态范围优化,在暗光环境下也能拍出清晰明亮的视频,夜景细节表现提升200%。ActiveHDR功能:精准还原复杂光线环境下的色彩与明暗细节,画面层次更丰富,色彩更真实生动。全天候、全场景创作利器GOUltra不仅性能强大,更具备出色的环境适应能力:双重防水:单机支持10米防水,搭配ActionPod扩展舱可实现IPX4级防泼溅,无惧雨天、滑雪或水下冲浪。超长续航:单机在长续航模式下可录制70分钟;搭配ActionPod扩展舱,总续航时间超过200分钟,满足全天候拍摄需求。支持快充,单机充电12分钟即可从0充至80%电量。灵活存储:支持最大2TBmicroSD卡,可拆卸设计方便管理海量素材。智能创作,一键成片通过Insta360官方App,用户可享受便捷的智能创作体验:AI自动剪辑:App可智能识别精彩片段,一键生成高质量Vlog。AI亲子时光:专为家庭用户设计,可自动识别并生成亲子瞬间相册,珍藏成长点滴。丰富配件生态:搭配磁吸挂绳、帽夹、随心贴等配件,可轻松解锁"蚊子视角"(萌宝视角)、骑行视角等创意机位,激发无限创作灵感。多平台开售,首发福利目前,Insta360GOUltra已在京东、天猫、品牌官方商城等平台同步开售。京东首发期间,用户可享以旧换新至高补贴150元、晒单送1000京豆等多重好礼,更有机会参与"1元抽签"活动,赢取新品。作为拇指相机品类的开创者,Insta360GOUltra的发布,不仅延续了品牌在便携影像领域的领先地位,更以其旗舰级画质与极致便携性,为Vlogger、运动爱好者及亲子家庭用户提供了全能拍摄新选择。
2025年8月27日至9月6日,第82届威尼斯国际电影节将迎来其重要的前沿板块--威尼斯沉浸式单元(VeniceImmersive)。作为全球最具影响力的XR内容盛会之一,本届活动将集中展示来自27个国家的近70部作品,涵盖VR、MR、交互叙事与虚拟世界创作,其中30部作品将角逐三项官方大奖。值得注意的是,"BestofWorlds"特别展映单元将集中呈现23部由VRChat平台创作的用户生成内容(UGC),标志着虚拟社交空间中的原生叙事正式进入主流电影节视野。这一选择不仅是技术形态的包容,更是对"谁在创造故事"这一命题的重新定义。七部前瞻:当艺术、哲学与技术在XR中交汇在众多参展作品中,以下七部项目因其独特的创作背景与主题深度,已引发行业广泛关注:《异星视角》:大师遗作的数字重生由意大利传奇特效大师卡洛·兰巴尔迪(CarloRambaldi,《异形》《E.T.》创作者)的孙女克里斯蒂娜·兰巴尔迪联合导演郑雅心共同制作,《异星视角》以兰巴尔迪的画作《太空城市2》为蓝本,构建出一个可探索的沉浸式世界。这不仅是一次家族记忆的延续,更是对早期科幻视觉语言的数字化复现。《小行星》:道格·里曼的XR动作首秀好莱坞导演道格·里曼(《谍影重重》《史密斯夫妇》)携手NFL球星DK·梅特卡夫,推出180°视角XR短片《小行星》。影片讲述一群陌生人驾驶老旧联盟号飞船,前往近地小行星采矿的高风险冒险。作为谷歌AndroidXR平台的原创项目,它试图将电影级叙事节奏带入沉浸式媒介。《黑猫与方格旗》:F1传奇的VR回溯聚焦法拉利首位F1世界冠军阿尔贝托·阿斯卡里,这部交互式VR/MR作品通过其迷信习惯、父子关系与童年记忆,重构了一位赛车英雄的精神图谱。在速度与命运交织的赛道上,技术成为通往历史情感的通道。《世界的诞生》:60幅画作中的宇宙诗学立陶宛艺术家M.K.恰尔利乌尼斯(M.K.Čiurlionis)以象征主义绘画闻名。本片由克里斯蒂娜·布奥兹特与维塔利尤斯·朱卡斯联合执导,邀请观众成为其艺术世界的"守护者",在基于60余幅画作演变的多重宇宙中,重述创世神话。《跃脸》:TenderClaws的意识跳跃实验曾打造《虚拟虚拟现实》的创意工作室TenderClaws推出新作《跃脸》,用户通过眼动追踪,在人类、动物、物体之间"跳跃视角"。每一次对视即是一次意识转移,探索重生与进化的哲学命题。《小红点的回声》:新加坡记忆的混合现实拼图创作者ChloéLee以"小红点"代指新加坡,通过混合现实技术编织个人口述史与档案影像,探讨城市化进程中diaspora(离散)群体的记忆断裂。在快速更迭的城市景观中,何处安放"家"的感知?《无境之感》:道、禅与荣格的交互冥想台湾艺术家叶欣璇创作的《无境之感》,融合道家"无为"、佛教"幻相"与荣格"积极想象"技法,提出一个根本问题:"走神时,我们去了哪里?"作品邀请观众在现实与内心世界的模糊边界中,开启一场潜意识漫游。结语:XR叙事的"威尼斯时刻"威尼斯沉浸式单元的持续举办,已使其成为全球XR内容发展的风向标。从兰巴尔迪的手绘宇宙到VRChat的草根创作,从好莱坞导演的跨界试水到亚洲艺术家的哲思表达,XR正在超越"技术演示"的初级阶段,迈向多元叙事的成熟期。当电影节不再仅评选"电影",而是评选"体验",我们或许正站在媒介史的新门槛上:故事不再被观看,而是被进入、被经历、被共同创造。
专注沉浸式体验,Aircards完成关键融资本周,沉浸式内容与交互技术提供商Aircards宣布成功从ForesightGroup获得300万英镑的成长期资本投资。这笔资金将用于推动公司在全球范围内的业务扩展,并重点支持其核心产品线与技术平台的发展。此次融资标志着Aircards自2020年成立以来的又一重要里程碑,公司计划将资金用于三大核心方向:增强内部fabrication(实体建造)能力扩展Invisionary交互式显示产品线深化Metalitix空间分析平台的研发打造"数字+物理"融合体验:从LED隧道到AR镜面Aircards专注于将数字叙事与实体空间体验深度融合。其内部设计与制造团队可打造各类沉浸式物理环境,包括:LED光影隧道互动式快闪空间(interactivepop-ups)增强现实(AR)智能镜面多人共享式混合现实体验区这些环境广泛应用于品牌营销、零售体验、体育场馆与文化活动中,为用户带来"可触摸的数字世界"。Aircards联合创始人兼COOMichaelWatson表示:"我们很高兴获得Foresight的投资支持。这笔资金将助力我们扩大核心创意工作室规模,拓展AI与AR赋能的交互硬件网络,并增强连接数字内容与实体体验的软硬件能力。"Invisionary显示系列:下一代数字户外广告(DOOH)Aircards的Invisionary产品线是其在数字户外广告(DigitalOutofHome,DOOH)领域的核心布局,主打高人流场景的智能交互显示解决方案,适用于:商场与零售空间机场与交通枢纽大型活动与品牌发布会其旗舰产品LUX-75是一款集成了人工智能(AI)与增强现实(AR)技术的触控显示屏,具备以下功能:沉浸式多媒体播放虚拟试穿(virtualtry-ons)互动游戏化体验(gamifiedengagement)实时数据分析商业交易集成(commerceintegration)通过这些功能,品牌可实现更高的用户参与度与转化率。Metalitix:洞察用户行为的"空间分析大脑"Aircards同步推进其Metalitix空间分析平台的开发。该平台可为3D、AR与混合现实体验提供深度行为洞察,功能包括:热力图分析(Heatmaps):追踪用户停留与移动路径视线追踪(GazeTracking):识别用户关注焦点会话回放(SessionPlayback):可视化用户交互全过程这些数据帮助品牌优化内容设计、提升用户体验,并量化营销活动的实际效果。背靠国际大牌,全球落地经验丰富自2020年成立以来,Aircards已为众多全球顶级品牌打造AR、VR、混合现实、CGI与AI驱动的营销活动,合作客户包括:Nike(耐克)L'Oréal(欧莱雅)Diageo(帝亚吉欧)Unilever(联合利华)LouisVuitton(路易威登)RedBull(红牛)项目覆盖全球多个城市、旗舰店、体育场馆与文化盛事,展现出强大的跨行业落地能力。投资方看好:团队与增长潜力兼具ForesightGroup高级投资经理JordanLavender表示:"Aircards自创立五年来展现出强劲增长势头。我们很高兴支持这支才华横溢的团队,共同迈向下一阶段的成长。"未来展望:沉浸式体验的"基建者"随着XR(扩展现实)、AI与空间计算技术的普及,Aircards正致力于成为连接数字内容与物理空间的关键桥梁。此次融资不仅将加速其全球化布局,也有望推动整个品牌体验与零售科技(retailtech)行业的创新升级。
在苹果VisionPro发布后不久,Meta于2023年MetaConnect大会上推出了Quest3,并由CEO马克·扎克伯格亲自宣布:2024年,这款头显将获得一项名为"Augments"(增强层)的重磅功能。然而,一年过去,这项被寄予厚望的功能却迟迟未上线。如今,Meta首席技术官安德鲁·博斯沃思(AndrewBosworth)在一次Instagram的问答(AMA)活动中首次公开回应进展--Augments并未取消,而是已被"从零重建"。曾经的愿景:空间中的"持久数字物件"根据扎克伯格当时的描述,Augments是指持久存在于物理空间中的数字对象,它们可以像真实物品一样固定在墙上、桌面或房间角落,并持续运行。演示画面中,用户可以在家中同时看到:一个悬浮的时钟一个可控制的音乐播放器通往游戏世界的"传送门"窗口更令人兴奋的是,2024年初泄露的视频显示,Augments甚至具备交互能力:比如一个可玩的迷你弹球游戏、一个可拖拽的日历应用,以及一株需要"浇水"的虚拟植物宠物。这本将是MetaHorizonOS迈向真正"空间计算"的关键一步--让混合现实应用像手机App一样多任务并行、持久存在。为何"推倒重来"?性能与架构的双重困境然而,博斯沃思坦言:"当我们最终拿到原型时,发现它不够好。"他透露,最初的Augments系统存在"巨大的性能权衡",无论是响应速度、资源占用还是稳定性,都无法达到Meta的标准。更根本的问题在于--整个系统架构是错误的。"我们意识到,支撑这些功能的底层架构本身就有问题。那是一个相当大的失误,而且是公开的。我一直对此很坦诚。"而问题的根源,可能就藏在那些泄露视频中:最初的Augments是基于Meta已废弃的SparkStudio平台开发的。SparkStudio曾是Meta用于创建Instagram/FacebookAR滤镜的工具,基于JavaScript和轻量级3D引擎。虽然适合移动端AR特效,但要支撑Quest3上高性能、低延迟的独立式混合现实多任务体验,显然力不从心。这也解释了为何Meta在2024年初正式关闭SparkStudio--为的是彻底转向更适合空间计算的技术栈。从"画饼"到"重建":一场迟来的技术赎罪博斯沃思承认:"在舞台上宣布了某个功能,最后却没能交付,这让人非常难受。我们大部分时候都避免这样做。但比这更糟的,是推出一个你自己都知道不够好、存在严重妥协的产品。"因此,Meta选择"回到绘图板",从底层操作系统层面重新设计整个Augments架构。这一过程耗时数年,至今仍未完成。尽管他未透露具体上线时间,但明确表示:"它没有被取消。"这一表态已让无数Quest用户松了一口气。2025年9月17日:关键窗口期临近随着MetaConnect2025大会定档2025年9月17日(距今不足一个月),外界普遍猜测,这将是Meta揭晓Augments最终形态的最佳时机。届时,我们或许将看到:全新的系统级多任务框架支持第三方开发者构建持久化空间应用更流畅的passthrough混合现实体验与AI助手深度集成的智能增强层如果成功落地,Augments将不再是"未完成的承诺",而是真正让Quest3与苹果VisionPro的"SharedSpace"正面抗衡的空间操作系统核心功能。结语:慢下来,是为了走更远在科技行业,跳票并不少见。但像Meta这样,公开承认失败、主动推倒重来,反而体现了一种罕见的技术诚实。Augments的延迟,或许正是Meta在"快速迭代"与"长期体验"之间做出的艰难选择。而这一次,他们宁愿慢一点,也要把基础打牢。毕竟,在通往"元宇宙"的路上,一个稳定、高效、开放的空间操作系统,比任何一场发布会的掌声都更重要。
继全球知名渲染技术公司Chaos(V-Ray开发商)宣布成为Blender基金会企业级赞助商后,虚拟现实(VR)科技公司picoXR也正式加入这一行列,成为BlenderDevelopmentFund的CorporatePatron(企业赞助成员),每年将向基金会捐赠24万欧元(约合每年240,000欧元),全力支持开源3D创作生态的发展。此次合作聚焦于Blender的OpenXR集成与沉浸式创作功能的开发,旨在为全球艺术家和开发者打造更强大、更直观的VR与混合现实(MR)内容创作工具。PICOXR:以硬件之力,推动开源创作革命PICOXR以其旗舰产品PICO4系列VR头显闻名,被广泛视为MetaQuest2/3的主要竞争者之一。此次对Blender基金会的深度支持,标志着PICO不仅致力于硬件创新,更积极布局内容生态与创作工具链,推动"在VR中创作VR内容"的闭环体验。通过资助Blender的OpenXR开发,PICO希望实现:更流畅的VR原生3D建模与动画制作体验;提升Blender在虚拟现实与混合现实环境中的兼容性与性能;降低创作者进入沉浸式内容领域的门槛,激发更多创新表达。"在PICO,我们致力于支持Blender全球开源社区,并推动3D创作生态的繁荣。"PICOXR合作伙伴负责人JessieZhang表示,"这项合作不仅有助于增强3D创作工具本身,更将培育一个让每位艺术家和开发者都能实现其独特沉浸式愿景的社区,并通过OpenXR连接全球观众。"OpenXR:打通VR创作的"通用语言"OpenXR是一种开放、免版税的行业标准API,旨在为VR和AR应用提供跨平台兼容性。Blender集成OpenXR后,用户将能够:使用PICO、MetaQuest、ValveIndex等不同品牌的VR设备,直接在Blender中进行3D创作;实现手势交互、空间定位、多设备协同等高级功能;构建真正"设备无关"的沉浸式工作流。PICO的加入,将加速Blender在OpenXR支持上的开发进度,尤其在移动式VR(StandaloneVR)设备上的优化,具有重要意义。开源生态迎来"黄金时代"?近期,开源3D与游戏引擎生态接连获得大厂支持:Chaos成为Blender基金会CorporateGold赞助商;JetBrains以Platinum级别赞助Godot基金会;现在,PICOXR以每年24万欧元的承诺加入BlenderDevelopmentFund。这些举措反映出一个明确趋势:主流科技公司正越来越重视开源项目在构建未来数字生态中的核心作用。Blender作为全球最受欢迎的开源3D套件,其发展不仅惠及独立艺术家,也为影视、游戏、建筑、工业设计等领域提供了低成本、高自由度的创作基础。
2025年7月24日,日本初创企业commissureInc.正式发布"HaptoScala"系列多通道触觉呈现系统。该系统可独立控制多达1,024个执行器通道,实现对身体多个部位的同步多点触觉刺激,在虚拟现实、远程操作与人机交互领域具有广泛应用前景。双型号配置:振动与剪切力触觉全覆盖"HaptoScala"系列包含两种型号,分别针对不同类型的触觉反馈需求:HaptoScalaV(振动刺激型):采用高性能振动器,具备高响应速度和高效能量传递特性,可独立调节每个通道的振动频率与振幅,适用于精细的节奏感与动态反馈。HaptoScalaS(剪切刺激型):可呈现传统振动难以模拟的侧向力或拖拽感,并通过控制旋转角度实现更丰富的力觉表达,拓展了触觉反馈的维度。高度模块化设计,支持灵活扩展两款型号均具备以下核心特性:最大支持1,024个通道的同步控制;采用模块化设计,支持按需更换与扩展;模块间通过专用接口连接,显著减少线缆数量,保障通信稳定性;可通过PC或微控制器直接控制,便于集成到各类系统中。应用场景广泛:从VR到工业远程操作HaptoScala系统适用于多种前沿领域:在虚拟现实(VR)内容中提供全身沉浸式触觉反馈;支持建筑机械、机器人等设备的远程操作,提升操控真实感与安全性;增强游戏与娱乐体验;用于触觉感知研究、神经科学实验及人机交互开发。源自东大实验室,专注触觉技术创新commissureInc.成立于2023年1月,总部位于东京目黑区,源自东京大学先进科学技术研究中心井波・角内实验室的衍生项目。公司专注于触觉通信、传感与呈现系统的研发,同时探索感知生成AI技术。公司在发布声明中表示:"通过HaptoScala系统,我们将降低专用触觉设备的制造成本,实现触觉解决方案的快速设计与部署,推动触觉技术在各领域的实际应用,加速解决现实问题。"
在macOS平台上,BlackmagicDesign旗下广受专业影视从业者青睐的后期制作软件DaVinciResolve,现已全面支持苹果沉浸式视频(AppleImmersiveVideo)格式。随着DaVinciResolve20.1稳定版的发布,内容创作者终于拥有了从剪辑、调色、视效到音频后期与交付的一体化解决方案,标志着苹果VisionPro内容生态迈出了关键一步。什么是苹果沉浸式视频?苹果沉浸式视频是一种高规格的空间媒体格式:它采用180度立体视角拍摄,每只眼睛可享受4K分辨率、90fps帧率、HDR高动态范围以及空间音频支持。其码率远超多数同类沉浸式视频平台,配合VisionPro的微OLED显示屏,呈现出令人惊叹的临场感。尽管目前该格式内容仅限于苹果TV应用内观看,且无法投屏或录制,外界难以直接体验--但我们在VisionPro评测中已对其画质表现给予高度评价。长期以来,这类内容均由苹果使用定制化摄影机与内部软件独家制作,极大限制了内容的丰富度与更新速度。从剪辑到交付:全流程支持落地Blackmagic早在2024年WWDC上就预告了对苹果沉浸式视频的支持。四个月前,DaVinciResolve20进入公测阶段时,初步功能已上线。如今,随着20.1稳定版的到来,这一支持正式面向所有macOS用户开放。新版软件实现了对苹果沉浸式视频的完整工作流覆盖:包括剪辑、色彩校正、视觉特效添加、空间音频混音,以及最终的导出与发布。这意味着专业团队现在可以像处理传统视频一样,对这一前沿格式进行精细化后期处理。为创作者而生:工具链全面适配为了满足沉浸式内容制作的特殊需求,DaVinciResolve20.1对多项核心工具进行了优化:边缘遮罩(EdgeMask):可自动识别并柔化画面边缘出现的收音设备等拍摄器材,使其自然过渡至黑色背景;修复与变形工具:适配球面影像结构,便于在沉浸式画面中进行局部修正;3D图文与模型支持:支持创建3D标题、图形,或导入USD文件将自定义模型置入空间场景,系统会自动将虚拟3D空间坐标转换为镜头空间;空间音频混音:支持AppleSpatialAudioFormat(ASAF),声音设计师可精准定位单声道音源方向,或整合现有空间音频素材,并可通过AirPods配合头部追踪实现双耳监听预览。所见即所得:多模式预览与VisionPro直连编辑过程中,用户可在2D屏幕上以原始视场角查看全景画面,或通过拖拽实现视角的上下左右旋转浏览。更进一步的是,软件支持直接将时间线画面实时串流至附近的AppleVisionPro设备--创作者无需猜测,即可在头显中看到最终观众将体验到的真实效果。此外,DaVinciResolve20.1还支持:自动识别双文件立体3D内容(左右眼分离);可选择绕过VisionPro默认渲染的过渡效果;导出原生格式文件,确保在VisionPro上无缝播放。硬件+软件闭环:URSACineImmersive即将登场要真正实现"人人可拍"苹果沉浸式视频,仅有软件支持还不够。为此,Blackmagic已推出售价3万美元的专业级沉浸式摄影机URSACineImmersive,并于去年12月开启预购,预计不久将正式发货。这款摄影机专为捕捉符合苹果标准的高质量立体3D180°视频而设计。结合DaVinciResolve20.1的强大后期能力,Blackmagic宣称其已构建"全球唯一覆盖编辑、调色、视效、音频后期与交付全流程的苹果沉浸式视频解决方案"。DaVinciResolve20.1沉浸式功能更新日志(完整版)为macOS版DaVinciResolveStudio添加对AppleVisionPro沉浸式视频工作流的支持。支持从时间线直接将沉浸式视频画面串流至AppleVisionPro进行实时监看。支持Apple空间音频格式(ASAF)。支持通过AirPods配合头部追踪进行双耳空间音频监听。支持剪辑使用BlackmagicURSACineImmersive拍摄的BlackmagicRAW沉浸式视频。提供适用于2D屏幕的沉浸式视频查看器,支持画面平移、俯仰和滚动浏览。自动识别苹果沉浸式视频(左右眼分离文件),用于双文件立体3D沉浸式内容。可选择绕过AppleVisionPro默认渲染的过渡效果。支持导出原生格式文件,供在AppleVisionPro上直接播放。
随着2025年9月17日至18日MetaConnect大会的临近,MetaCTOAndrewBosworth在其Instagram的"问我任何事"(AMA)环节中透露了今年大会的一些亮点。Bosworth暗示,本次大会将聚焦于"重大穿戴设备发布"、"AI技术"以及"元宇宙软件"。重大穿戴设备发布:MetaCeleste智能眼镜登场据TheVerge、TheInformation、FinancialTimes和知名记者MarkGurman的报道,Meta将在Connect2025上推出其首款配备显示屏的智能眼镜--可能命名为MetaCeleste。设计特点:Celeste将在右眼配备一个小巧的抬头显示器(HUD),用于显示时间、天气、通知、拍摄的照片预览、逐向导航指示、现实世界语音的字幕与翻译、以及MetaAI的文字回复而非语音。价格与控制:预计售价超过$1000,并包含Meta多年研发的sEMG腕带,以实现手指手势控制。功能限制:尽管Celeste拥有显示屏,但它仅限于单眼显示,视野并不宽广,且缺乏位置追踪功能,这意味着它无法在真实世界中固定虚拟物体或界面。此外,Meta还计划通过与法国-意大利眼镜巨头EssilorLuxottica合作,在今年晚些时候推出另一款产品--OakleyMetaSphaera眼镜,该款眼镜配备了更适合第一人称视频捕捉的中央摄像头。迈向真正的AR眼镜之路虽然Meta在过去十年里一直在开发真正的AR眼镜,并在去年的Connect2024大会上展示了名为Orion的完全集成AR眼镜原型,但因制造成本高昂(每单位需超过$10,000),短期内难以商业化。因此,尽管Meta可能会在Connect2025上提及其在真正AR眼镜方面的进展,但这不太可能是重点,以免抢了Celeste的风头。元宇宙软件的新篇章关于"元宇宙软件"的具体含义,目前尚不明朗,但以下几点值得关注:AI生成环境:Meta曾多次预告能够在HorizonWorldsDesktopEditor中使用AI生成整个环境的功能。HorizonOS革新:根据v78和v79公共测试通道的数据挖掘,Meta正在对Horizon平台的Home系统进行改造。CodecAvatars技术突破:经过十多年的研究,Meta正准备推出其长期开发的CodecAvatars技术,旨在提供一种社会存在感,即使对方不在场也能感受到真实的陪伴。最新的CodecAvatars采用了高斯投影方法,可通过智能手机扫描生成高质量版本,并具有重光照特性,非常适合VR和混合现实应用中的实际使用。未来展望尽管Quest3及Quest3S并未配备眼球追踪或面部追踪功能,Meta有可能首先推出基于AI模拟面部追踪的基本版CodecAvatars,使用户能在WhatsApp和Messenger视频通话中以比当前MetaAvatar更逼真的形式出现。随着这些新技术的应用,Meta正逐步构建一个更加沉浸式、互动性的数字世界,而Connect2025无疑将是这一进程中的重要里程碑。
Meta近日为其HorizonWorlds桌面编辑器(HorizonWorldsDesktopEditor)推出名为"CreatorAssistant"的AI代理(AIagent),可回答开发问题并自动化执行多种创作任务。该编辑器于2025年2月以"抢先体验"形式发布,适用于Windows平台,同时Meta停用了HorizonWorlds内的VR创作工具。HorizonWorlds桌面编辑器功能概览功能说明资产导入支持导入3D模型、图像、音频文件场景构建可在3D环境中放置资产逻辑开发使用TypeScript(JavaScript的衍生语言)实现游戏逻辑与功能AI功能演进时间线时间更新内容发布初期美国创作者可使用AI生成音效与环境音频2025年4月扩展至美国、英国、加拿大:支持AI生成3D网格(mesh)、纹理(texture)、天空盒(skybox)2025年6月扩展至澳大利亚、新西兰近期推出AI语音NPC功能(官方表示将另行报道)CreatorAssistant:AI开发助手功能说明可回答关于桌面编辑器的使用问题可自动执行特定开发任务示例指令(Meta提供24个)用户可向CreatorAssistant发出如下指令,AI将自动完成资产查找、放置、属性设置及代码编写:"制作一扇在按钮按下时打开的门""创建一个踩上去会激活的地板砖""创建一个可开关的杠杆""生成玩家可收集得分的金币""设计一扇需要钥匙才能打开的门""制作拾取后可恢复生命值的补给包""构建一个可将玩家传送到其他位置的传送垫""开发一个来回移动的平台""设计一个上下运行的电梯""构建一个将玩家弹射到空中的装置""设计一个旋转并伤害玩家的障碍物""创建踩上去会下落或消失的平台""设置一个让玩家跑得更快的区域""构建一个像岩浆一样对玩家造成伤害的地板""生成一把可发射投射物的枪""制作可被射击的目标""创建被击中时会爆炸的桶""为我的游戏实现倒计时计时器""设计一扇在玩家靠近时打开的门""构建一个需要特定重量的压力板谜题""创建一个组合密码锁谜题""生成一个随机掉落物品的箱子""实现一个类似掷骰子的随机器""设计一个重复生成物体的系统""构建一个带音乐的舞池"示例问题(Meta提供4个)用户可向CreatorAssistant提问:"如何创建我自己的自定义资产?""如何在Horizon中使用动画?""如何学习TypeScript?""如何在Horizon中实现自定义UI系统?"当前限制CreatorAssistant尚无法调用Horizon的其他AI生成工具当被要求"创建"或"构建"某物时,AI会从资产库(AssetLibrary)中查找现有资产,不会生成新的AI资产新增功能:风格参考(StyleReference)Meta同时推出新功能StyleReference:功能说明目的确保AI生成的资产风格统一支持类型Mesh(网格)、Texture(纹理)、Skybox(天空盒)、SFX(音效)、AmbientAudio(环境音频)作用创作者可生成、保存并复用特定风格,使生成内容符合其设想的主题与氛围尚未发布功能:AI生成完整世界尽管多次预告,Meta尚未推出"环境生成"(EnvironmentGeneration)功能。2025年6月,Meta表示该功能将"很快上线"功能描述:创作者可基于多种主题"一键生成完整环境"潜在影响:若实现承诺,将极大降低VR世界创作门槛,将创建时间从数小时缩短至数分钟其他信息HorizonWorlds桌面编辑器平台:Windows桌面应用价格:免费MetaHorizon创作者基金总额:5000万美元目标:奖励创作"有趣且吸引人"世界的开发者发放方式:每月发放奖金,依据以下指标:用户停留时长用户留存率世界内购买行为说明:创作者可通过多种方式提升收入
在Meta2025年第二季度财报电话会议上,CEO马克·扎克伯格(MarkZuckerberg)首次公开提出一个极具未来感的判断:"我认为,未来如果你没有具备AI能力的眼镜,或某种与AI交互的方式,你很可能会在认知上处于显著劣势。"这一言论不仅揭示了Meta对智能眼镜的战略定位,更预示了一个即将到来的"AI增强人类认知"时代。智能眼镜:Meta的"下一代计算平台"正在成型扎克伯格是在回应分析师关于"智能眼镜是否将取代智能手机"的提问时做出上述表态的。他系统阐述了Meta为何将眼镜视为未来的核心计算形态:时尚属性:与雷朋(Ray-Ban)、Oakley等品牌合作,确保产品首先是一款"人们愿意佩戴的时尚眼镜"。AI功能持续增强:MetaAI在眼镜中的使用率持续上升,越来越多用户每天使用AI功能。多模态交互优势:眼镜可让AI"看到你所见、听到你所听、与你对话",实现全天候、沉浸式辅助。虚实融合入口:眼镜是"将物理世界与数字世界融合的理想方式",也是实现"元宇宙愿景"的关键载体。扎克伯格还以视力矫正类比:"我戴隐形眼镜。如果我没有视力矫正,我在世界上穿行时就会有认知劣势。我认为未来,没有AI眼镜的人,也会面临类似的认知落差。"市场验证:Ray-BanMeta销量同比增长超200%这一战略正获得市场积极反馈。Meta的眼镜合作伙伴--依视路陆逊梯卡(EssilorLuxottica)近日披露:"今年截至目前,Ray-BanMeta智能眼镜销量同比超过三倍增长,表现'异常出色'。"这一数据印证了消费者对"时尚+AI"融合产品的接受度正在快速提升。Meta与依视路陆逊梯卡的合作持续深化:双方已签署协议,将合作"延续至下一个十年",共同开发多代智能眼镜产品线Meta已投资30亿欧元,获得依视路陆逊梯卡3%股份据报道,Meta正"考虑"进一步增持至5%产品路线图:从无屏到HUD,再到全息ARMeta的智能眼镜战略采取"分阶段推进"策略,逐步实现从"AI音频助手"到"视觉增强"的跃迁。第一阶段:无屏AI眼镜(已落地)代表产品:Ray-BanMeta、OakleyMetaHSTN功能:音频AI助手、拍照录音、音乐播放状态:已量产,销量爆发第二阶段:带HUD显示的智能眼镜(即将发布)据TheVerge、彭博社等多家媒体确认,Meta首款带显示的智能眼镜MetaCeleste将于2025年秋季发布,预计在MetaConnect2025(9月17日)上正式亮相。MetaCeleste关键特性:单眼光学HUD:位于右眼,显示基础信息显示内容:时间、天气通知提醒拍照预览导航指引实时语音字幕与翻译MetaAI文本回复(替代语音播报)控制方式:标配sEMG腕带,支持手指微动作控制价格:预计超过1000美元⚠️注意:Celeste并非全功能AR眼镜,无空间定位,无法锚定虚拟物体,视野也较窄,属于"信息提示型"设备。第三阶段:全息AR眼镜(长期愿景)Meta已投入近十年研发真正的AR眼镜。2024年Connect大会上展示的Orion原型机,具备:双眼全息显示宽视场角(FOV)高精度眼动与手势追踪完全无线设计但Meta承认:Orion不会成为产品。原因:其依赖的光学材料无法实现低成本量产,若上市,每台成本将超过10,000美元。第四阶段:可量产AR眼镜(Artemis项目)为实现商业化落地,Meta正在开发代号为Artemis的AR眼镜项目,已向《TheVerge》记者AlexHeath公开部分细节:使用玻璃波导镜片(与SnapSpectacles、HoloLens、MagicLeap相同技术路径)放弃Orion的"宽视场角"设计,优先保证可制造性与成本控制目标:打造首款面向开发者与早期用户的消费级AR眼镜这意味着:Meta的首款AR眼镜将不会是Orion那样的"终极形态",而是一款技术折衷但可量产的过渡产品。时间线展望:2025年是关键转折点时间事件意义2025年4月扎克伯格称员工为赶工"周末加班"显示Meta对HUD产品高度重视2025年9月17日MetaConnect2025大会预计发布MetaCeleste,开启预购2025年10月预计发货用户首次体验"AI+显示"智能眼镜2026年起Artemis项目推进向真正AR眼镜迈进总结:Meta的"AI眼镜霸权"正在构建维度Meta的布局战略定位智能眼镜是"下一代计算平台",AI是核心市场验证Ray-BanMeta销量暴涨,用户接受度高产品节奏从无屏→HUD→AR,分阶段演进生态掌控投资依视路陆逊梯卡,掌控硬件与渠道技术储备Orion展示终极愿景,Artemis推进落地✅一句话结论:扎克伯格所说的"认知劣势",不是危言耸听,而是Meta正在亲手构建的未来。从Ray-Ban到Celeste,再到Artemis,Meta正在通过"时尚引流+AI增强+分步落地"的策略,将智能眼镜从"小众玩具"推向"认知基础设施"。未来十年,眼镜或将取代手机,成为人类大脑的"外接CPU"。
VR52网成立于2015年,平台提供VR头显、AR眼镜、配件外设、厂商、测评、行业资讯、游戏与应用、展会活动等。