在当前VR眼镜市场中,显示技术长期呈现两极分化:低端产品普遍采用LCD,而高端设备则依赖昂贵的Micro-OLED。如今,TCL旗下华星光电(CSOT)在2025年中国国际显示技术生态大会(DTC2025)上,推出了一款全球像素密度最高的RGBOLED-on-Glass面板,有望成为兼顾画质与成本的理想折中方案。LCDvsMicro-OLED:各自的短板LCD:成本低、量产成熟,但对比度差,黑色表现灰蒙,细节丢失严重;Micro-OLED:自发光、色彩鲜艳、对比度极高,且能在微小尺寸实现超高分辨率,适合轻薄光学设计(如Pancake透镜),但制造难度大、良率低、价格高昂。部分中高端设备(如MetaQuestPro、PimaxCrystal、SomniumVR1)尝试通过量子点+MiniLED背光提升LCD表现,但仍无法媲美OLED的自发光特性,且额外组件增加了重量、发热与功耗。OLED-on-Glass曾是VR主流,如今迎来复兴契机?OLED-on-Glass(即普通OLED,用于手机、电视)曾在2014–2016年主导VR市场(OculusRift、HTCVive、初代PSVR均采用)。但随着LCD在像素密度和成本上快速追赶,厂商逐渐转向LCD,OLED定制研发几近停滞。目前市面上唯一仍在使用新款OLED的主流XR设备只有PSVR2--其之所以仍采用菲涅尔透镜,正是因为当时尚无足够高密度的OLED能适配更紧凑的Pancake光学模组。TCL新款OLED面板PlayStationVR2的OLED尺寸2.56英寸约3.4英寸解决2560×27402000×2040子像素RGB(3/3)PenTile(2/3)刷新率120赫兹120赫兹密度1512PPI>800PPITCL新面板:密度翻倍,专为Pancake优化TCL此次发布的OLED面板具备以下关键优势:分辨率高达2.5K(单眼),采用全RGB子像素排列(非PenTile);像素密度几乎是PSVR2的两倍,在面积仅为其一半多一点的情况下,提供73%更多像素、160%更多子像素;120Hz刷新率,符合VR性能需求;尺寸小巧,天然适配Pancake透镜;无需扩散层(因RGB排列均匀),可避免画面软化,提升清晰度;分辨率显著超越Quest3与SteamFrame所用的LCD屏。这意味着搭载该面板的头显有望实现:深邃黑位、高对比度、鲜艳色彩+高清晰度+相对可控的成本,填补Quest3与三星GalaxyXR之间的产品空白。类型分辩率Quest3LCD2064×2208SteamFrameLCD2160×2160TCL新面板OLED2560×2740AppleVisionProMicro-OLED3660×3200SamsungGalaxyXRMicro-OLED3552×3840是否解决"Mura噪声"成关键然而,一个悬而未决的问题是:该面板是否仍存在传统OLED常见的固定图案噪声(Fixed-PatternNoise)或Mura不均现象?PSVR2等设备就因此被用户诟病画面有"颗粒感"。而目前所有Micro-OLED均无此问题。若TCL成功通过工艺优化抑制了Mura效应,这款面板或将真正推动OLED-on-Glass在中端XR市场的复兴。苹果或成潜在客户?值得注意的是,早在一年多前,韩媒《TheElec》就曾报道:日本JDI和三星均在为苹果传闻中的"VisionAir"头显开发约1500PPI的高密度普通OLED。而TCL此次公布的面板密度几乎完全吻合--暗示其可能也在向苹果等大厂积极推广。目前TCL尚未透露是否有客户采用该面板,仅确认其专为"XR头显"设计。但可以肯定的是,这场显示技术的"中间路线"竞赛,正在悄然升温。
11月12日,EpicGames正式推出游戏引擎UnrealEngine的最新版本--UnrealEngine5.7。本次更新聚焦于大规模虚拟场景构建效率、高精度实时渲染表现、角色动画与MetaHuman深度整合,并首次引入内置AI助手,显著降低开发门槛。同时,面向影视与虚拟制片的工作流也获得多项关键增强。开放世界构建迈入自动化时代UE5.7将此前处于预览阶段的程序化内容生成框架(PCG)正式纳入产品版。开发者可借助该系统高效自动生成地形、植被、建筑等环境元素,并支持创建具备自然变化的广阔世界。新增的PCG专用编辑器模式,允许通过样条线绘制、笔刷绘制或体积定义等方式直观操控生成逻辑。性能方面,PCG的GPU处理速度进一步提升,现已支持GPU参数的动态修改。同时引入Polygon2D数据类型,为2D形状驱动的3D生成提供更灵活的基础。植被渲染革命:NaniteFoliage登场作为实验性功能,新版引入了基于Nanite的全新植被渲染系统--NaniteFoliage。该技术能以极低开销渲染高密度植被,适用于大规模自然环境的构建与动态模拟。通过NaniteAssemblies机制有效控制性能负载,并支持NaniteSkinning,使草木能随风自然摆动,大幅提升生态场景的真实感。材质与光照系统再进化SubstrateMaterials正式转正,支持多层材质叠加,可真实还原金属、布料、皮肤等复合表面的光学行为,适用于多层皮革、次表面散射皮肤等复杂表现,并兼容自定义着色逻辑。MegaLights(Beta)首次集成,允许在场景中布置大量带动态阴影的光源,并生成柔和、物理准确的阴影效果。方向光与粒子系统的光照计算也同步优化。MetaHuman整合大幅强化MetaHumanCreator插件现已支持Linux与macOS平台,并开放Python与蓝图批量处理接口,便于自动化角色生成与编辑流程。新增网格随姿势变形功能,确保角色在不同姿态下保持合理形变。表情动画方面,现可通过LiveLinkFace直接接入外部摄像头画面,实时驱动MetaHuman面部动画,显著降低高质量面部捕捉的成本与复杂度。动画工具集全面重构动画工作流经历结构性优化:全新动画模式界面简化操作区域,支持通过"选择集"快速切换常用工具;新增自动镜像姿势生成与视图切换功能;IKRetargeter改进足部与地面接触逻辑,支持根据角色体型动态维持接触点,并加入避障与姿态适配变形。虚拟制片功能扩展面向影视制作,UE5.7新增小道具动态约束系统与LiveLink广播功能,使引擎可作为网络中的实时数据源。合成系统Composure也获增强,现已支持直接处理直播视频流与图像素材,提升现场合成效率。内置AI助手:开发者的智能副驾最引人注目的新特性之一是编辑器内AI助手。用户可通过F1键或面板直接调用,获取操作指引、自动生成代码片段,或将鼠标悬停于UI元素上即时查看相关文档。该助手还整合了教程与官方资料,成为新手入门与老手提效的实用工具。
XR技术公司Ultraleap(以无接触手势追踪与空中触觉反馈闻名)近日宣布正式并入音乐科技品牌ROLI。此次整合将双方在空间交互与智能乐器领域的核心技术深度融合,旨在加速开发基于手势识别与AI的下一代音乐学习与创作工具。交易金额未披露。手势+AI+乐器:"人人皆可演奏"ROLI表示,此次合并将实现硬件、软件与计算机视觉系统的深度协同,尤其聚焦于其Airwave平台--该平台利用空间AI技术,将钢琴学习转化为一种直观、具身化的体验。用户无需传统琴键,仅凭手势即可触发音符、控制音色动态,大幅降低入门门槛。Ultraleap联合创始人兼CEOTomCarter将出任ROLI首席技术官(CTO)并加入董事会,主导新产品研发。他在声明中强调:"Airwave已证明,只要有合适的工具,每个人都能成为音乐家。而ROLI与Ultraleap的结合,在这一领域无人能及。"技术底座:从XR到音乐的跨界迁移Ultraleap成立于2013年,由LeapMotion(高精度手部追踪)与Ultrahaptics(超声波空中触觉)合并而成,其技术广泛应用于XR、汽车座舱与交互显示场景,核心在于通过计算机视觉+超声波反馈实现"隔空操控"。而ROLI自2009年创立以来,始终致力于打造"以人为本"的数字乐器,代表产品包括:Seaboard(柔性连续音高键盘)BLOCKS(模块化MIDI控制器)ROLIPiano系列Airwave(手势驱动的钢琴学习系统)此次整合,意味着Ultraleap的手势与触觉技术将不再局限于虚拟现实或车载界面,而是转向更具情感表达力的音乐交互场景。战略转型:Ultraleap寻求垂直落地,ROLI强化技术护城河据此前报道,Ultraleap今年曾探索资产出售或重组方案。此次并入ROLI,标志着其技术路线从通用XR解决方案向高价值垂直领域(音乐教育与创作)的战略转移。ROLI联合创始人兼CEORolandLamb表示:"我们看到了一个机会--将Ultraleap纳入ROLI,共同打造一家在音乐科技领域真正具备技术壁垒的公司。"未来,团队将聚焦于"用空间手势与AI彻底重构音乐学习与创作流程"。对于普通用户而言,这意味着未来的音乐工具可能不再依赖物理按键,而是通过自然手势、身体姿态甚至眼神,在空气中"演奏"出富有表现力的旋律--一场静默却澎湃的交互革命正在酝酿。
罗技近期为AppleVisionPro和MetaQuest系列分别推出高精度空间追踪手写笔Muse与MXInk,定价约130美元。尽管硬件已就位,但操作系统支持、应用适配与交互逻辑仍处于早期阶段,暴露出当前VR/AR创作输入生态的"未完成"状态。Muse与MXInk:各自平台的首批原生笔输入MXInk已支持Quest2/3/3S超过一年,可作为系统级激光指针操控HorizonOS菜单,并在FigminXR、Vermillion、GravitySketch等主流创作应用中实现精准绘制。Muse则随visionOS26.2测试版首次获得系统级六自由度(6DoF)追踪支持,目前已可在Apple自家的Freeform和Notes中进行直观的2D草图绘制,未来将逐步扩展至3D场景。两款手写笔均通过尾部USB-C接口充电,支持边用边充--这一特性甚至优于Quest或PSVR2的官方手柄。MXInk还可搭配50美元的充电底座"Inkwell",提升桌面使用体验。输入方式割裂:笔+手柄仍是常态尽管Meta和Apple均大力推动手部追踪技术,但多数创意应用仍将手写笔与传统手柄视为"主副搭配":用户一手持MXInk,另一手仍需握Touch控制器。即便系统级手部追踪已相当成熟,开发者却很少将其与笔输入深度融合,导致体验割裂。例如在VR游戏《拼图之夜 JigsawNight》中,虽可实现"主手用笔+副手用手势"的组合,但这属于少数特例。多数应用仍将手势视为独立输入模式,而非协同工具。游戏场景意外适配:《Thrasher》成"魔法棒"范本令人意外的是,VR节奏动作游戏《Thrasher》对MXInk的支持极为出色。玩家挥动笔杆即可操控屏幕中的"扭动怪兽",体验接近魔法杖或指挥棒。这揭示了一个潜力方向:任何涉及"手持道具"的虚拟交互,都可能是空间笔的天然场景。然而,这种成功高度依赖特定交互约束--若脱离垂直平面或固定坐标系,笔的追踪漂移问题仍会暴露。开发者难以直接复用该模式。生态仍在演进:系统与开发者同步追赶Apple在visionOS26.2中才初步开放Muse的系统级集成,而Meta虽早有支持,却面临开发者动力不足的问题。目前仅有少数应用(如CircuitFlux)同时兼容SonyPSVR2控制器与罗技笔输入。Meta正通过开发者资助计划鼓励创新,而Apple开发者则刚刚开始思考如何将Muse融入3D工作流。两者路径不同,但共同指向一个目标:让高精度空间输入成为XR创作的核心支柱。随着操作系统持续优化、更多应用加入支持,这套"口袋尺寸的创作工具"能否真正替代笨重的传统手柄?答案尚在书写中。
由前MagicLeap团队成员创立的AR开发公司Trace今日正式推出其无代码AR创作平台。该平台旨在让普通用户无需编程或专业设计能力,即可创建、分享并规模化部署沉浸式增强现实内容。TraceCEOGregTran将其定位为"AR领域的Canva"--目标是让过去动辄花费10万美元由广告公司制作的AR演示,变成周末就能完成的个人项目。无代码也能做高保真AR体验Trace平台支持在手机、AR眼镜及混合现实头显上部署交互式、基于地理位置的AR内容。其"专业级消费工具"(prosumersuite)结合高性能渲染引擎与直观界面,使数字对象能与真实物理环境智能互动。用户还可通过WebStudio直接导入现有3D资产。"长期以来,AR创作工具都被技术门槛牢牢锁住,"Tran表示,"我们打造Trace,就是为了让任何人无需写一行代码,也能把创意带到现实世界中。"平台具备跨设备兼容性--为手机设计的内容可无缝扩展至AR眼镜和MR头显,确保体验一致性与可扩展性。填补AdobeAero与MetaSparkAR留下的空白Trace的发布恰逢两大主流AR创作工具退出市场:AdobeAero已于今日正式停服,而MetaSparkAR早在今年1月关闭。为吸引迁移用户,Trace宣布向从这两平台转来的创作者提供三个月免费高级订阅。CTO兼联合创始人MartinSmith指出:"尽管XR设备性能不断提升,但创作者生态仍极度受限。无论你是教师、艺术家还是世界500强品牌,Trace都能让你快速构建并分享愿景--它随处可用、即时扩展,并支持AR应有的画质水准。"企业已入场,应用场景多元目前,T-Mobile、高通、Telefónica、联想和德国电信等企业已成为早期采用者,将Trace用于品牌快闪、零售互动、展会装置及员工培训等场景。该技术还亮相于世界移动通信大会(MWC)和HipHop50周年峰会等活动。Tran用"一个地点的网站"来类比Trace的定位--每个物理空间都可拥有专属的交互式数字层,由创作者自由定义。免费上手,订阅起价20美元/月Trace创作应用现已登陆iPhone与iPadAppStore,免费下载使用;高级功能订阅起价为每月20美元。配套的TraceViewer应用同时上线iOS与安卓平台,网页版可访问官网。官网:trace3d.app
Meta正式宣布举办2025MetaHorizonStart开发者大赛,面向其开发者扶持计划"HorizonStart"(前身为OculusStart)的成员,征集全新或重大更新的Quest应用。本次赛事总奖金高达150万美元,共设32个奖项,单个最高奖金达10万美元,旨在激励开发者在娱乐、生活方式与游戏三大核心领域推动VR/MR体验的边界。四大主赛道:覆盖沉浸内容与日常应用大赛设立四个主要类别,每类均设冠军、亚军与佳作奖:最佳娱乐体验定义:让内容消费或观看比传统形式更沉浸、互动且具创新性。奖金:$100,000(冠军)、$60,000(亚军)、$30,000(佳作)最佳生活方式体验定义:提升用户日常生活效率、技能学习或围绕共同兴趣建立连接。奖金:$100,000/$60,000/$30,000最佳社交游戏定义:支持多人实时在线或同地协作游玩的游戏。奖金:$100,000/$60,000/$30,000最佳休闲游戏定义:易于上手、单人游玩、适合短时快速娱乐的游戏。奖金:$100,000/$60,000/$30,000此外,还设有"评委之选"特别奖,奖励那些"突破现有技术或体验边界、实现真正独特创新"的作品,共6个名额,各奖励$30,000。八大专项技术奖:鼓励前沿功能集成为推动特定技术生态发展,Meta还设立了八项专项奖,聚焦SDK使用与硬件特性调优:最佳手势交互实现(3名):各$50,000最佳结合透视摄像头与AI的应用(3名):各$50,000基于SpatialSDK打造的最佳沉浸体验(2名):各$50,000基于ImmersiveWebSDK打造的最佳沉浸体验(2名):各$30,000最能发挥MetaQuest独有特性的Android应用(1名):$25,000最佳Android工具类应用(1名):$25,000最佳旅行模式Android应用(1名):$25,000基于ReactNative构建的最佳体验(1名):$25,000参赛作品可为全新项目,也可是对现有Quest应用的重大更新。Meta明确举例说明,"重大更新"包括但不限于:新增手部追踪支持、引入混合现实(PassthroughMR)功能、加入多人联机系统等实质性增强。释放明确信号:Quest原生生态仍是重点此次大赛正值Meta今年已向HorizonWorlds移动端创作者累计发放350万美元奖金之后,被业界视为对"Meta是否仍重视独立Quest应用开发"的有力回应。通过高额奖金与细分赛道设置,Meta显然希望吸引更多开发者深耕Quest平台原生内容,而非仅聚焦于其社交元宇宙平台。参赛须知截止日期:2025年12月9日参赛资格:必须为MetaHorizonStart计划成员(非成员需先申请加入)报名入口:[官方参赛页面链接]对于VR/MR开发者而言,这不仅是一次获取资金支持的机会,更是获得Meta官方技术指导、市场推广资源及社区曝光的重要跳板。
在XR行业长期流传一个说法:人眼分辨极限约为60像素/度(PPD),达到这一数值即被视为"视网膜级"显示,意味着画面细腻到无法察觉像素点。然而,剑桥大学与Meta应用感知科学团队联合开展的一项新研究,通过严谨实验推翻了这一广泛接受的假设。该研究发表于《自然·通讯》(NatureCommunications),通过对18名受试者的系统测试,证实人类视觉系统在理想条件下可分辨高达94PPD的灰度细节,红绿图案达89PPD,部分个体甚至能识别120PPD的图像--是传统"60PPD极限"说法的两倍。实验设计:逼近人眼真实分辨能力研究人员将一块27英寸4K显示器安装在1.6米长的电动滑轨上,受试者头部固定于下巴托架,正对屏幕。通过调节屏幕距离(1.1至2.7米)、图像空间频率及注视角度(0°、1°、20°),测试其对两类视觉刺激的分辨能力:方波光栅(含彩色与灰度版本):模拟人眼基础视觉检测器最敏感的波形;黑白文本:评估日常阅读场景下的清晰度阈值。结果显示,即便在中央视野(fovea)以外区域,人眼对高对比度细节的敏感度也远超行业预估。尤其值得注意的是,一名受试者在灰度测试中达到120PPD,表明"视网膜分辨率"存在显著个体差异,且整体上限被严重低估。对XR硬件发展的深远意义当前主流设备的角分辨率仍远低于此极限:Quest3约为25PPD,AppleVisionPro和三星GalaxyXR达到约35PPD,VarjoXR-4在中心区域实现51PPD。Meta此前展示的Tiramisu原型机虽在极窄33°视场内达到90PPD,但难以兼顾视场角与实用性;其后续版本Tiramisu2已转向更平衡的"60PPD@90°FOV"目标。尽管短期内消费级头显难以逼近百PPD水平,但这项研究明确指出:VR/AR显示技术仍有巨大提升空间。与智能手机屏幕已趋近物理瓶颈不同,XR设备在未来数十年内仍可通过分辨率、光学与渲染技术的协同演进,持续逼近人眼真实感知极限。更重要的是,它提醒行业:不应过早将"60PPD"视为终点,而应以实证数据驱动下一代显示标准的制定。
近日,CCTV13中央电视台新闻直播间《创新发展看广东》系列报道对广纳四维进行了深度专访,揭秘了这家成立仅四年的科技企业如何通过"纳米级"创新突破AR智能眼镜行业技术瓶颈,并实现全球市场占有率超60%的亮眼成绩。技术深耕:以"纳米级"精度破解行业瓶颈智能眼镜镜最核心的显示器件,就是用我们的光波导芯片来实现。"广纳四维董事长李晓军介绍,团队通过"衍射光波导"技术,在镜片内构建纳米级的"光的隧道",实现对光路的精准控制。广纳四维董事长李晓军(右一)研发总监史瑞进一步解释道:"我们通过设计深度、宽度仅几百纳米的光栅结构,控制光的传播路径,在眼前形成清晰图像的同时,保持镜片其他部分的高度透明。"该技术通过精密调控光栅参数,实现了无鬼影、无重影的高质量显示。脚踏实地:严谨工艺支撑量产一致性为保障量产稳定性,广纳四维建立了严格的品控体系。"我们通过电子显微镜对光栅进行多点检测,任何偏差立即调整。"史瑞表示。这种对工艺细节的极致追求,使公司突破了衍射光波导在性能、良率与量产规模上的瓶颈。广纳四维研发总监史瑞(左一)市场验证:全球占有率超60%凭借技术优势与量产能力,广纳四维在全球市场迅速崛起。四年间,公司营收实现数十倍增长,波导片全球市场占有率达61.4%,单品出货量全球第一。广纳四维董事长李晓军这一成绩得益于国家科技成果转化政策支持。2020年科技部试点"职务科技成果赋权",李晓军团队获得70%知识产权权益,极大激发了创新活力。2021年底,团队成功将技术推向市场,实现从"论文专利"到"市场产品"的关键跨越。立足湾区,面向世界:推动AR光学进入半导体制造时代作为广东AR眼镜产业链关键环节,广纳四维将半导体工艺引入光学芯片量产,推动AR光学迈向"纳米级精密制造"新阶段。在AR与AI加速融合的背景下,广纳四维展现出中国企业在关键光学部件领域的创新实力。正如李晓军所言:"我们非常有信心集中力量突破关键器件的量产瓶颈、研发瓶颈与性能瓶颈。"
10月29日,据《科创板日报》报道,全国首个脑机接口未来产业集聚区已正式落地上海虹桥国际中央商务区。该集聚区由上海市、闵行区及虹桥商务区三级联动推进,正从市级和区级层面整合政策资源,加速打造具有全球影响力的脑机接口产业高地。这一布局标志着中国在下一代神经科技领域的战略落子进入实质推进阶段。脑机接口(Brain-ComputerInterface,BCI)已被写入《中共中央关于制定国民经济和社会发展第十五个五年规划的建议》,成为国家重点布局的"六大未来产业"之一,凸显其在科技创新与医疗变革中的关键地位。为响应国家战略,上海市于2025年1月率先发布《上海市脑机接口未来产业培育行动方案(2025-2030年)》,明确了未来五年的发展路线图。2027年目标:突破临床应用,构建创新生态根据《行动方案》,到2027年,上海将实现以下关键目标:半侵入式脑机接口产品在国内率先实现临床应用;侵入式脑机接口研发取得实质性突破;推动5款以上侵入式/半侵入式产品完成临床试验;面向失语、瘫痪患者,实现部分语言表达与运动功能的恢复;引进和培育5家以上具备核心技术研发能力的自主创新企业,以及10家以上产业链上下游骨干企业,初步构建脑机接口创新生态。2030年愿景:打造全球创新高地,重塑脑疾病治疗展望2030年,上海力争实现:脑机接口产品全面进入临床应用阶段;产业链核心环节实现自主可控;成为全球脑机接口产品创新高地。届时,系列脑机接口设备将进入医疗器械注册审批流程,用于:帮助失明患者部分恢复视觉能力;帮助瘫痪患者恢复触觉感知与全身运动功能;为难治性癫痫、重度抑郁症等脑部疾病提供全新治疗手段。
发表于《新英格兰医学杂志》(TheNewEnglandJournalofMedicine)的一项临床试验结果显示,一种名为PRIMA的电子眼植入系统,结合AR眼镜,已成功帮助因严重眼疾失明的患者恢复"阅读视力",标志着视觉修复领域迎来突破。这项研究为目前尚无治愈手段的晚期干性年龄相关性黄斑变性(dryAMD)患者带来了全新希望。38名患者参与,84%恢复读写能力试验在全球17家医院(包括英国著名的Moorfields眼科医院)开展,共纳入38名因地理性萎缩(GeographicAtrophy,GA)导致单眼中央视力丧失的患者。GA是干性AMD的晚期形式,此前没有任何疗法能恢复已丧失的视力。研究结果显示,在植入PRIMA系统并使用12个月后:81%的患者实现了具有临床意义的视力改善;84%的患者能够借助该系统识别字母、数字或单词,具备基本阅读能力;平均而言,患者在视力表上能多看清五整行,而部分患者术前甚至无法看到视力表上的任何一行;手术未对患者的周边视力造成显著影响,安全性良好。将一块2毫米x2毫米的微芯片植入患者视网膜下方。PRIMA系统如何工作?微型芯片+AR眼镜的"视觉重建"该系统由脑机接口与神经工程公司ScienceCorporation开发,核心由两部分组成:无线视网膜下植入芯片:一块仅2mm×2mm的微型芯片,通过手术植入视网膜下方,替代受损的感光细胞。定制AR眼镜:眼镜内置摄像头,可捕捉外部视觉信息,并将图像转换为近红外光脉冲,投射到植入芯片上。芯片接收到光信号后,将其转化为电脉冲,刺激残留的视网膜神经细胞,信号再通过视神经传至大脑,最终被解读为视觉图像。患者需经过康复训练,学习"解读"这些信号,重建视觉认知。"开启人工视觉新时代"伦敦大学学院(UCL)眼科研究所副教授、Moorfields眼科医院视网膜专家MahiMuqit教授(本研究联合作者)表示:"在人工视觉的历史上,这代表着一个新时代。失明患者首次真正实现了有意义的中央视力恢复--这在以前从未实现过。"他特别强调,PRIMA植入手术可在两小时内由任何经过培训的视网膜外科医生完成,这一标准化流程为未来大规模临床应用铺平了道路。何时能普及?商业化尚需时日尽管成果振奋人心,但研究团队并未公布PRIMA系统的商业化时间表。目前结果仅为迈向监管审批(如FDA、CE认证)的重要一步,整个流程通常需要数年时间。该研究由德国波恩大学FrankHolz博士牵头,获ScienceCorporation及Moorfields国家健康研究所生物医学研究中心支持。PRIMA系统的成功,不仅是神经工程与AR技术融合的典范,更首次证明了重度视力丧失患者可恢复功能性中央视力。未来,随着技术优化与成本降低,此类"视觉假体"有望为全球数百万盲人带来重见光明的可能。
MetaPlatforms于近日公布了2025年第三季度财务业绩。数据显示,公司本季度实现营收512.42亿美元,同比增长26%,远超市场预期,展现出核心业务的强劲势头。然而,净利润为27.09亿美元,同比大幅下降83%,主要原因是计入了一笔一次性税收支出。扎克伯格:AI与AI眼镜将引领"最激动人心的几年"首席执行官马克·扎克伯格在财报电话会上表示,本季度"对我们的业务和社区来说都很强劲",并展望未来:"我们正处于公司历史上最激动人心的几年之一。"他特别强调了公司在人工智能和AI智能眼镜领域的领先地位。扎克伯格透露,MetaSuperintelligenceLabs(超级智能实验室)进展顺利,已取得良好开局。他重申,AI眼镜是Meta未来战略的核心方向之一,公司正"处于这一领域的前沿"。RealityLabs持续增长,Quest3S推动硬件销售负责XR与元宇宙业务的RealityLabs部门在第三季度实现营收4.7亿美元,高于去年同期的2.7亿美元,延续了增长态势。增长主要得益于Quest3等VR设备的持续销售以及AR/VR生态的扩展。不过,首席财务官SusanLi指出,预计第四季度RealityLabs营收将同比下降。原因在于:去年第四季度发布了新款Quest3S并提前计入假日季出货,而今年同期没有新硬件发布,导致同比基数较高。加大AI投入,资本支出上调至720亿美元Meta正大力投资人工智能,以驱动广告业务创新、提升用户参与度,并创造全新服务。CFO表示,这些投入将为2026年及以后的营收增长提供强劲动力。在资本支出方面,Meta将2025年全年支出预期从此前的650-700亿美元上调至700亿至720亿美元,主要用于构建AI基础设施。公司预计,2026年的资本支出和总运营支出将进一步增加,反映出对AI长期发展的坚定承诺。战略聚焦:AI驱动增长,XR长期布局尽管净利润短期承压,Meta的整体业务基本面依然稳健。公司正通过两大引擎推动未来增长:人工智能:深度整合AI至广告、推荐系统与内容生成,提升效率与用户体验。RealityLabs:持续投入VR、AR与MR技术,尤其将AI眼镜视为下一代计算平台的关键突破口。随着AI能力的增强与XR硬件的演进,Meta正致力于打造一个融合物理与数字世界的"智能互联体验"生态。
据BusinessInsider报道,Meta已对RealityLabs部门进行结构性调整,将HorizonOS从原有的"元宇宙"业务组中剥离,升格为与"元宇宙"和"可穿戴设备"并列的一级业务部门这一调整标志着Meta在XR操作系统层面的战略升级,凸显其将HorizonOS打造为开放平台、与谷歌AndroidXR直接竞争的决心。组织架构调整:OS独立,领导层换防在此次重组前,RealityLabs的两大核心部门为:元宇宙(Metaverse):负责Quest头显、HorizonOS平台、HorizonWorlds等第一方软件。可穿戴设备(Wearables):主管Ray-Ban和Oakley智能眼镜、AR眼镜研发及Meta神经腕带(NeuralBand)。如今,HorizonOS被独立出来,由RyanCairns继续领导,并直接向MetaCTO安德鲁·博斯沃思(AndrewBosworth)汇报。而原"元宇宙"部门负责人VishalShah已调任至Meta超级智能实验室(MetaSuperintelligenceLabs),负责AI产品与跨部门整合。新任"元宇宙"部门负责人GabrielAul将带领团队专注于VR与移动端的高质量体验开发,而HorizonOS团队则聚焦于构建更强大的软硬件基础平台。元宇宙优先级未变,但OS战略更清晰博斯沃思在内部备忘录中强调:"元宇宙工作的优先级没有改变,它仍然是全公司的重点。"他指出,Meta已向行业证明了其技术路线的正确性,正吸引越来越多的竞争对手入局,因此必须"持续巩固来之不易的优势"。他还提到,VR正从游戏向娱乐、生产力和社交连接等更广泛场景扩展,而AI创作工具正在加速虚拟世界的构建。此次组织调整旨在优化执行效率,确保"元宇宙"与"HorizonOS"团队在保持战略协同的同时,能更专注各自核心使命。对标AndroidXR,争夺XR生态主导权值得注意的是,谷歌的AndroidXR系统已随三星GalaxyXR首发,并计划于2026年登陆更多设备。Meta此举被广泛解读为明确将HorizonOS定位为AndroidXR的直接竞争者。通过将OS独立运作,Meta可更灵活地推进平台标准化、开发者生态建设和跨设备兼容性,为未来真正的AR眼镜和通用空间计算平台铺路。此外,近期Quest系统更新v83中,已将"世界"(Worlds)从应用库中独立为单独标签页,这一UI变化也被视为"OS与内容分离"战略的外在体现。平台化加速,Meta的XR野心不止于头显此次重组并非削弱元宇宙,而是将底层操作系统提升至与应用生态同等重要的战略地位。通过独立HorizonOS,Meta正从"VR设备制造商"向"空间计算平台提供商"转型,为迎接下一代计算平台的全面竞争做好准备。
美国帕洛阿尔托机器人初创公司1X近日展示了其最新人形机器人Neo,一款旨在未来自主完成家庭任务的智能助手。尽管目前Neo尚不具备完全自主能力,但公司正通过"人类远程操控+AI学习"的方式,加速其神经网络在真实家居环境中的训练。这款重66磅(约30公斤)、外形穿着毛衣风格外壳的机器人,现阶段仍需依赖操作员介入。用户可通过预约"专家模式"(ExpertMode),由佩戴Quest3头显的人类操作员远程操控Neo执行复杂任务,如从冰箱取水、装载洗碗机或清理厨房台面。这一过程不仅完成即时任务,更重要的是为Neo的AI系统积累现实世界的行为数据。能力有限,安全与隐私设限据1X创始人兼CEOBerntBørnic介绍,Neo目前无法处理过重、高温或尖锐物品,短期内难以胜任烹饪或搬运家具等高风险任务。在隐私方面,Neo支持设置禁区,限制进入家中特定区域,并可对摄像头画面中的人脸进行模糊处理。但Børnic强调,机器人的智能化程度与用户数据共享程度密切相关:"你分享得越多,它就越有用。"他将此关系比喻为"大姐姐原则"--Neo是来帮助你的"大姐姐",而非监视你的"老大哥"。"我想明确一点:如果你在2026年购买这款产品,就意味着你接受了这份社会契约,"Børnic在接受《华尔街日报》采访时坦言,"没有你的数据,我们就无法让产品变得更好。"2026年交付,售价2万美元或月付500美元在演示中,Neo并未实现任何任务的完全自主运行。但Børnic表示,到明年正式发货时,Neo将能"自主完成家中大部分事务",且性能会随着数据积累快速提升。目前,Neo已开放预订,需支付200美元可退还押金,提供灰色、驼色和黑色三种配色。预计将于2026年在美国率先交付,售价为一次性支付2万美元,或每月500美元订阅。
瑞典多所大学的研究团队近日联合开发出一种名为"视网膜电子墨水屏"(RetinalE-InkDisplay)的新型显示技术。该技术采用"超像素"(Metapixels)结构,像素宽度仅约560纳米,实现超过25,000PPI的超高像素密度,远超当前主流VR/AR设备(如苹果VisionPro和三星GalaxyXR)约4000PPI的水平。研究团队指出,尽管微型OLED目前主导着近眼显示市场,但新开发的电子墨水屏有望在尺寸、重量和分辨率方面实现突破,为未来超紧凑型VR头显和AR眼镜提供全新技术路径。图片由《自然》杂志提供纳米级超像素:反射式结构,低功耗高对比该显示屏的"超像素"由氧化钨纳米圆盘构成,通过电还原反应可逆地在绝缘态与金属态之间切换,从而实现对亮度与颜色的纳米级控制。其反射式结构依赖环境光成像,仅需一层比头发丝还薄的材料即可呈现鲜艳色彩与深邃黑色,光学对比度达约50%,并支持HDR显示。由于无需主动发光,该技术具备极低功耗特性,特别适合对续航和散热要求严苛的可穿戴设备。研究结果显示,该技术可应用于视频透视式VR/MR头显及光学透视式AR眼镜,为轻量化设计提供可能。图片由《自然》杂志提供距实用仍有距离:刷新率与驱动挑战待突破尽管前景广阔,该技术目前仍处于实验室阶段,距离商业化应用尚有诸多挑战。当前原型机的全彩视频刷新率略高于25Hz,远低于沉浸式VR所需的60Hz门槛,更无法与VisionPro高达120Hz的刷新率相比。研究团队正致力于提升刷新率、扩展色域、优化稳定性与使用寿命,并探索降低工作电压和更换电解质材料的方案。此外,驱动如此高密度像素所需的TFT阵列与图形处理能力也是一大难题--尽管显示单元本身功耗极低,但图像处理负载仍可能成为系统瓶颈。若关键技术瓶颈得以突破,这项"视网膜电子墨水屏"有望推动下一代VR/AR设备向更小、更轻、更高分辨率的方向迈进。
韩国先进微显示技术企业RAONTECH近日宣布,正式推出其最新'P13'型号0.13英寸LCoS(硅基液晶)显示模组。该产品以"极致微型化"为核心卖点,旨在突破现有微显示技术在尺寸与功耗上的瓶颈,为下一代轻薄型智能眼镜提供关键显示组件。P13模组尺寸仅为6.25毫米×4.65毫米,据称较RAONTECH此前同分辨率产品缩小约60%。这一突破使得光机模组体积可压缩至1立方厘米以下,首次实现完整光机系统完全嵌入智能眼镜的镜腿内部,为消费级AR眼镜的时尚化与日常化佩戴扫除关键障碍。高像素密度+单板全彩,提升AR显示性能与光学效率基于3微米像素工艺,P13提供800×800分辨率,像素密度超过同尺寸LEDoS(LEDonSilicon)方案的两倍,可呈现更精细、锐利的图像,满足AR应用对高密度视觉信息呈现的需求。在色彩表现方面,P13采用单面板全彩设计,与传统需三块LEDoS面板配合X-Cube棱镜的复杂光路相比,大幅简化了光学架构。RAONTECH表示,该设计在保证高质量色彩还原的同时,显著降低了光机系统的复杂度与体积,有助于提升量产可行性与良率。此次P13的发布,也进一步丰富了RAONTECH的全彩微显示产品线。此前,该公司已推出P18LEDoS面板,而P13的LCoS技术路径则在分辨率和像素密度上展现出更强竞争力。已进入客户开发阶段,或亮相CES2026RAONTECH透露,全球多家客户已开始基于P13开发下一代光机模组与AR眼镜产品,原型设备预计将在包括CES2026在内的国际大型展会上亮相。这表明该技术已从实验室走向产业化落地的关键阶段。随着P13的推出,RAONTECH正加速在AR微显示领域的布局,其技术方案有望成为推动消费级AR眼镜从"可穿戴"向"日常穿戴"演进的重要驱动力。
Meta近日宣布,其新一代研究用智能眼镜ProjectAriaGen2将于2026年第二季度起向全球符合条件的第三方研究机构出货。此举旨在推动机器感知与人工智能技术的发展,为未来AR眼镜和个人AI助手奠定技术基础。作为Meta在AR硬件与感知系统领域的重要研究平台,ProjectAria自2020年推出初代设备以来,已广泛用于公司内部AR感知系统的训练与验证。2024年,Meta首次向全球27个国家的300多个实验室开放AriaGen1设备,助力学术界与产业界开展人机交互、环境理解等前沿研究。随着Gen2的推出,Gen1的研究申请通道现已关闭。AriaGen2全面升级:感知、算力与舒适性同步进化2025年2月发布的AriaGen2在感知能力、佩戴舒适性、交互设计和设备端计算性能方面均实现显著提升。新设备搭载更强大的传感器阵列,包括更高分辨率的摄像头、改进的惯性测量单元(IMU)和增强的音频采集系统,支持更精准的手部与眼动追踪、环境建模与声学定位。值得一提的是,AriaGen2集成了Meta自研的低功耗协处理器,可在设备端实时运行感知算法,减少对云端计算的依赖,提升数据处理效率与隐私安全性。尽管两代Aria设备均未配备显示单元--与已上市的MetaRay-Ban智能眼镜不同--但其核心定位是作为"感知实验室",为未来AR设备积累关键技术。提前释放白皮书与试点数据集,助力研究生态为迎接2026年的规模化部署,Meta同步发布了两项关键资源:《AriaGen2设备白皮书》和《AriaGen2试点数据集》。白皮书详细介绍了Gen2的人体工学设计、传感器配置、低功耗架构,并对比了两代设备的技术差异。试点数据集则包含Gen2实际采集的多模态数据样本,涵盖手眼协同、传感器融合与3D环境建图等场景。数据集中还提供了Meta自研算法的输出示例,如手物交互识别、3D边界框检测,以及与NVIDIA合作的FoundationStereo模型生成的深度估计结果。
VR52网成立于2015年,平台提供VR头显、AR眼镜、配件外设、厂商、测评、行业资讯、游戏与应用、展会活动等。