近日,国际光学工程学会(SPIE)旗下专注于增强现实(AR)硬件研发的ARAlliance宣布新增18家成员企业。此次扩容汇聚了来自全球的顶尖技术力量,涵盖基础研究、先进光学、显示技术、直觉化交互界面及空间计算平台等关键领域,标志着AR产业链协同创新进入新阶段。构建统一生态,推动AR供应链协同发展"我们正在共同构建AR。"ARAlliance主席、意法半导体(STMicroelectronics)战略营销总监BharathRajagopalan博士表示,"ARAlliance是开展实质性工作的平台--在这里,各方协力统一技术路径,推动全球AR供应链的整合、标准化与规模化,并加速创新落地。"新加入的成员横跨材料、器件、模组到系统级解决方案,展现出AR硬件生态的高度专业化与垂直深度:光学与波导技术:AlphaLum、OORYMOptics、Solnil、CREAL(光场成像)、Augmenteum(液晶主动光学)等公司聚焦下一代近眼显示核心;微型显示与半导体:RAONTECH、NichiaAmerica、KyoceraSLDLaser提供Micro-OLED、GaN激光光源等关键发光元件;投影与光机引擎:Appotronics、TriLiteTechnologies、OQmented(MEMS激光扫描)、Gixel带来多样化轻量化显示方案;感知与交互:EyeJets专注视网膜显示与眼动追踪,TDK通过其AIsight平台提供情境感知与端侧智能;制造与测试:Goertek(AR/VR整机与组件制造商)、GIS(触控与光学模组)、TechnoTeam(光度计量图像处理)支撑量产落地;学术前沿:罗切斯特大学扩展现实中心(CXR)则为沉浸式平台与光学设计注入科研动能。Rajagopalan补充道:"我们很高兴迎来这批技术深厚、产品领先的伙伴加入ARAlliance。他们的加入将极大增强我们在推动AR市场成熟方面的集体能力。"随着苹果VisionPro、MetaRay-Ban智能眼镜等消费级产品逐步铺开,底层硬件生态的协同效率正成为行业突破的关键。ARAlliance此次大规模扩容,不仅强化了从材料到整机的全栈技术联动,也为未来统一标准、降低开发门槛、加速产品迭代奠定了坚实基础。
本周,SnapInc.宣布将其智能眼镜业务拆分为一家名为SpecsInc.的全资独立子公司。此举旨在为即将于2026年下半年正式发布的"Specs"智能眼镜提供更清晰的战略聚焦、运营灵活性与品牌独立性。Snap表示,新架构将便于拓展外部合作,并保留引入少数股权投资的可能性,同时有助于市场对这一新兴业务进行独立估值。透明镜片+空间交互:重新定义人与数字世界的关系与传统手机或VR设备不同,Specs智能眼镜采用透明镜片设计,可在用户真实视野中叠加三维数字内容,实现虚实融合。交互方式摒弃触屏,转而依赖自然的手势识别与语音指令,让用户无需低头即可操作数字信息。在官方声明中,Snap强调:"电脑和智能手机似乎是为了攫取注意力、隔绝现实、疏远人际关系而设计的。而Specs恰恰相反--它让你留在当下,并通过共享体验,将你与朋友、家人和同事重新连接。"内置AI智能系统:懂你、懂环境,且注重隐私Specs还将搭载一套名为"IntelligenceSystem"(智能系统)的AI引擎。该系统能基于对用户习惯与周围环境的理解,主动代为执行任务--例如自动调出会议资料、识别物体并提供说明等。Snap特别指出,所有处理均以本地化与隐私保护为前提,避免敏感数据上传云端。目前,已有开发者基于Specs平台构建面向教育、游戏与职场效率的应用,全部以"扎根现实场景"为核心理念。从白板到玩具:数字替代有望减少实体浪费Snap还提出一个更具社会意义的愿景:随着白板、说明书、电视甚至实体玩具被可交互的数字对象取代,Specs或能显著降低物理资源消耗与电子废弃物产生,推动更可持续的消费模式。公司确认,下一代Specs智能眼镜将在今年晚些时候正式公开亮相,并已启动相关岗位招聘,加速产品落地。在苹果VisionPro聚焦高性能计算、Meta押注AR长期研发的背景下,Snap选择以"轻量、社交、日常化"切入,试图证明:真正的空间计算,不是让人逃离现实,而是让现实变得更丰富。
空间计算公司Nucleus4D(简称Nucleus)近日宣布完成150万美元的Pre-Seed轮融资,由Antler与SouthLoopVentures领投,多位来自房地产、人工智能及沉浸式技术领域的战略天使投资人跟投。本轮融资将用于扩充工程与产品团队、扩展空间数据采集与处理基础设施,并加速其Web端查看器、实时协作工具及空间数据管道的平台化建设。从行业痛点出发:照片失真、3D复用难Nucleus联合创始人兼CEONavjeetChhina表示,公司创立源于他在房地产与沉浸式内容制作两个领域反复遭遇的同一问题:在房产交易中,买家常因照片、视频或传统3D漫游与实景严重不符而失望,且内容制作成本高、效率低;在3D内容生产中,团队往往耗费大量时间重建环境,但成果难以跨项目复用。这一洞察促使Chhina与前Meta工程师PaulinByusa、前Verizon高管MiranBrajsa共同创立Nucleus--不做单一媒体产品,而是打造一个面向"物理世界数字化"的空间计算平台。技术核心:单次扫描生成多模态数字孪生不同于传统虚拟看房方案,Nucleus采用先进空间捕捉+3D高斯泼溅(3DGS)技术,将真实空间转化为高保真、可交互的数字孪生体。据公司称,过去需多人、多工具、多流程才能产出的内容,如今仅需一次现场扫描即可自动生成:沉浸式自助导览实时虚拟带看电影级视频精确户型图与尺寸数据结构化空间元数据更重要的是,这些数据可作为训练语料,为大世界模型和具身AI系统提供真实环境输入。已落地2500万平方英尺,切入主流房产平台自2025年第三季度launch以来,Nucleus平台已展示超2500万平方英尺的住宅、商业及酒店空间。公司还透露,其已成为首家获准在主流在线房产listing平台上线3DGS沉浸式体验的公司,标志着该技术正式进入消费级房产交易流程。尽管当前聚焦房地产与酒店业,Nucleus的长期愿景更为宏大:构建一个基础性的空间数据层,让物理环境既能被人类直观体验,也能被AI系统深度理解与分析--为"物理AI时代"铺路。
空间计算公司EvenRealities正式启动面向其第二代智能眼镜「EvenG2」的早期开发者计划--EvenHubPilotProgram。该计划旨在通过提供开发平台的抢先访问权限,与精选开发者深度协作,加速打造真正贴合日常场景的空间化应用体验。不同于常规的开放测试,该PilotProgram采用小规模、高互动的"早期访问群组"(cohort)模式,专为希望将创意快速转化为可运行原型的开发者设计。入选者将获得:直接对接Even平台团队,获取一手技术反馈;优先体验EvenHub最新功能,包括尚未公开的API与工具链;加入专属Discord开发者社区,与其他参与者共享进展、协作迭代。所有核心交流与协作将在Discord上进行,确保高效沟通与快速响应。聚焦HUD体验,让开发者专注UX而非硬件适配「EvenHub」作为官方开发平台,提供一套完整的API接口,用于连接EvenG2应用。其设计理念明确:让开发者摆脱底层硬件限制,专注于空间交互与用户体验本身。尤其针对抬头显示(HUD)场景中关键的UX问题--例如"哪些信息能被直觉感知?"、"如何避免遮挡现实视野?"--EvenHub支持在本地开发环境中快速反复验证与优化,大幅缩短从构想到可用原型的周期。EvenG2:轻若无物,专为日常而生的视觉增强眼镜作为该生态的硬件载体,EvenG2于2025年11月发布,目前已在全球开启预订。其核心定位并非全能型AR眼镜,而是高度克制、专注视觉辅助的日常穿戴设备:采用绿色单色Micro-LED显示屏,分辨率提升至640×480(前代G1为640×200),亮度达1000尼特,视场角20度,显著增强户外可视性;机身由镁合金与钛合金打造,镜框厚度较前代减少50%,外观更接近普通眼镜,重量轻盈、佩戴自然;不搭载摄像头与扬声器,仅提供HUD信息显示,兼顾隐私与社会接受度;支持Bluetooth5.3与UWB(超宽带),具备IP54防尘防水等级,续航长达2天以上。其应用场景聚焦于实时翻译、步行导航、提词器等轻量但高频的需求,目标是让数字信息"无声融入"现实视野,而非打断用户对真实世界的感知。EvenRealities表示,希望通过EvenHubPilotProgram与开发者共同构建一个以"空间体验"为核心的实用化应用生态。目前,感兴趣者可通过官网专用表单提交申请。
只需输入一段文字或一张图片,就能即时生成一个完整、连贯且可自由漫游的3D虚拟空间--这正是AI初创公司SpAItialAI最新推出的生成式模型Echo所实现的能力。该技术不仅大幅降低3D内容创作门槛,更重新定义了人与虚拟空间的交互方式。真正的"空间生成",而非像素拼接Echo背后的核心技术是一种被称为空间基底模型(SpatialFoundationModel,SFM)的新型AI架构。与传统生成模型聚焦于像素不同,SFM直接以物理空间本身为生成对象。它能基于现实世界的物理规律,在米级尺度上预测完整的3D场景结构,确保新视角、深度图及交互结果均源自同一个一致的底层世界模型。这意味着,无论用户从哪个角度观察或如何操作环境,所见内容都具备几何与语义上的一致性,避免了传统方法常见的视角断裂或逻辑矛盾问题。实时交互+低门槛访问,人人皆可创作3DEcho生成的3D世界支持实时相机控制与即时渲染,即使在普通笔记本电脑或低性能设备上,也能通过网页浏览器流畅运行,无需高端显卡或专业VR设备。这种轻量化设计使其覆盖人群从专业设计师延伸至普通消费者。更关键的是,Echo并非"一次性输出"。用户可在生成后对3D场景进行深度编辑:更换材质、增删物体、整体风格重绘等操作均可实现,且系统会自动维持场景的三维一致性,确保修改后的世界依然逻辑自洽、视觉连贯。应用场景广阔,从游戏到机器人仿真凭借上述特性,Echo为多个领域打开了新的工作流可能:数字孪生:快速构建真实环境的可交互复刻;游戏开发:一键生成基础关卡并支持后续迭代;3D设计与建筑可视化:从草图或描述直接进入空间体验;机器人训练:在符合物理规律的合成环境中进行仿真学习。目前,SpAItialAI已在其官网展示多个由Echo生成的示例世界,并开放封闭测试注册通道。用户仅需提供一段文本或单张图像,即可尝试构建属于自己的可编辑3D宇宙。体验申请:https://www.spaitial.ai/join-waitlist
在近日于布鲁塞尔举办的UnitedXR大会上,智能隐形眼镜开发商XPANCEO首次公开展示其专为轨道、月球及深空任务设计的最新智能隐形眼镜原型。该设备与宇航服头盔集成,旨在解决传统可穿戴界面在太空环境中的根本性局限。太空场景下的交互痛点催生新方案在舱外活动中,宇航员佩戴厚重手套,难以操作触屏设备--现实中甚至需用鼻子点击平板。同时,智能眼镜等头戴设备在微重力或密闭空间中易造成视野遮挡、重心偏移或碰撞风险。XPANCEO指出,现有交互方式高度依赖语音指令,信息反馈缺乏视觉锚定,影响操作效率与安全性。其新原型通过将全息显示直接投射至视网膜,构建"零干扰"数据界面:既不阻碍视线,也不增加头部负载,确保宇航员在复杂任务中保持自然姿态与快速响应能力。技术架构:模块化设计支持多路径演进当前原型采用分体式架构--隐形眼镜本身集成微型光学元件,而图像源与电源模块嵌入宇航头盔内部,通过无线方式供能与传输数据。XPANCEO强调,该配置具备高度灵活性,未来可适配不同光学方案,包括已在其他原型中验证的集成式微显示屏版本。该思路延续了公司此前在赛车头盔中应用全息显示的经验,但针对极端环境(如真空、辐射、温变)进行了可靠性强化。成立于2021年的XPANCEO致力于将AR、生物传感与健康监测融合于单片智能隐形眼镜。其技术矩阵已涵盖:AR视觉透镜、无线供能伴侣设备,以及内置微型电池的自主运行版本。此次太空原型不仅是场景拓展,更是对其"无感计算"理念在高可靠性领域的关键验证。对航天、工业AR及远程操作领域而言,XPANCEO的方案提供了一条摆脱手持或头戴设备束缚、实现真正"眼即界面"的技术路径。
随着虚拟现实、增强现实及混合现实技术的融合趋势日益明显,XR生态系统正迎来新一轮竞争高潮。一边是Meta推出的SpatialSDK/HorizonOS,旨在简化Quest设备上的开发流程;另一边则是由Google联合三星和高通共同打造的AndroidXROS,力图成为开放标准的空间计算操作系统。两者虽都致力于推动XR开发的普及化,但其背后的产品理念却截然不同。MetaSpatialSDK/HorizonOS:简化引擎依赖,加速原生开发Meta的SpatialSDK允许开发者使用Android原生工具(如Kotlin、AndroidStudio及相关库)直接为Quest系列设备构建XR应用,无需依赖重型游戏引擎。核心功能:空间锚点:在物理世界中固定虚拟对象;共享空间:支持多人协作与社交互动;透视相机:将现实环境无缝融入虚拟体验;HorizonOSUI组件:提供统一的用户界面设计元素;MR实用套件:辅助开发MR场景下的交互逻辑。手势识别:支持捏合、滑动、点击等基础手势,以及完整的手部追踪能力。AI功能:上下文感知UI:基于环境理解自动调整界面布局;AI驱动的空间认知:提升场景理解和物体识别精度;自适应MR混合:根据不同光照条件动态优化虚实叠加效果。最佳适用人群:适用于已深度嵌入Meta生态圈的开发者,特别是那些希望摆脱传统游戏引擎束缚,探索轻量化XR工作流的专业人士。开发者资源链接:MetaSpatialSDK示例代码(GitHub)MetaHorizonOS开发者资源AndroidXROS:跨平台兼容,拥抱开放生态由Google主导、三星与高通共同参与的AndroidXROS是三星GalaxyXR头显及ProjectAuraAI眼镜背后的动力源泉,定位为一个面向多终端的开放式空间计算平台。核心功能:跨平台XR开发:确保应用能在不同硬件上流畅运行;SnapdragonSpaces集成:利用高通芯片组的强大算力;沉浸式生产力与娱乐:覆盖从办公到游戏的全方位应用场景。手势识别:提供捏合、抓取、滑动等复杂手势支持,并兼容触控板输入及手柄操作。AI功能:AI眼镜(ProjectAura):集成语音+手势的多模态输入方式;AI驱动的空间计算:通过智能算法优化用户体验。最佳适用人群:适合追求开放架构、企业级XR解决方案及AI增强体验的开发者群体。开发者资源链接:AndroidXR官方开发者页面AndroidXRSDK开发者预览博客FramesixtyAndroidXR开发指南这场XR平台之争,不仅是技术层面的竞争,更是对未来人机交互模式话语权的争夺。无论是Meta的封闭生态还是Google的开放联盟,都将深刻影响下一代空间计算产品的走向与发展路径。对于开发者而言,选择哪条道路,或许意味着不同的创新机遇与市场前景。特征区域MetaSpatialSDK/HorizonOSAndroidXR操作系统核心能力空间锚点、共享空间、透视、地平线用户界面跨平台XR、骁龙空间、生产力、游戏手势捏合、滑动、点击、全手追踪捏合、抓取、滑动、触控板、混合输入人工智能功能情境感知用户界面、AI空间锚点、混合现实实用工具包人工智能眼镜、多模态输入、人工智能驱动的空间计算生态系统契合度MetaQuest设备,HorizonOS三星GalaxyXR、ProjectAura、开放式 AndroidXR
2021年"元宇宙"被高调推上神坛--它被描绘成人类数字迁徙的下一站:一个闪亮的新大陆,人们将在其中社交、购物、建造、进化,甚至不再需要挺直腰背。然而,现实很快泼来冷水。人们开始问出那个尴尬却致命的问题:"到底谁在用这个?"如今,2025年即将落幕,叙事再次转向:AR可穿戴设备正悄然取代元宇宙,成为科技巨头与用户共同关注的焦点。原因很简单--它们真正融入了日常生活。700亿美元的豪赌,换来一场现实检验Meta对元宇宙的押注堪称孤注一掷。2021年公司直接更名,并持续向RealityLabs(其XR业务部门)投入巨资,如同坚信下一把轮盘就是"赢局"。尽管MetaQuestVR眼镜在2024年拿下了全球VR/AR市场约70%的份额,吸引了企业和消费者目光,但距离扎克伯格所期望的"大众普及",仍有遥远距离。财务数据尤为刺眼:仅2025年第三季度,RealityLabs就录得44亿美元运营亏损,自2020年底以来累计亏损已逼近700亿美元。如此规模的投入,自然引发外界质疑:"这笔账,最终能回本吗?"MetaConnect2025:战略重心转向AI驱动的轻量级AR眼镜在2025年的MetaConnect大会上,公司新方向已然清晰。扎克伯格依然坚信XR将取代智能手机,但通往这一未来的路径,正从笨重的头显转向AI赋能的智能眼镜--这一思路也与苹果、三星不谋而合。最新动作包括:与Ray-Ban推出新一代智能眼镜;宣布与Oakley达成全新合作;推进神经腕带(neuralwristband)研发;收购AI可穿戴初创公司Limitless。Limitless联合创始人兼CEODanSiroker表示:"Meta最近宣布了将'个人超级智能'带给每个人的愿景,而AI可穿戴设备是其中关键一环。我们认同这一方向,并将加入Meta共同实现它。"值得注意的是,RealityLabs同时负责元宇宙与AR技术。如今的资源倾斜,实则是一次明确的战略重构:从构建虚拟世界,转向打造日常可用的增强现实工具。从"建筑乌托邦"到"室内装修":技术哲学的根本转变元宇宙的原始构想过于宏大--它要求用户彻底迁移到另一个维度,重建身份、经济与社交规则,却称之为"无摩擦体验"。这显然违背了人类的基本行为逻辑:我们连切换浏览器标签都嫌麻烦,更别说搬进虚拟世界。相比之下,AR采取了截然不同的策略:不取代现实,而是增强它。它像"室内设计",在已有生活场景中叠加信息、提供上下文、辅助决策,而不打断真实的人际互动。这种从"逃避主义"到"实用主义"的转向,正是市场反复验证的结论:空间计算的未来,不在于打造一个新目的地,而在于让现实世界变得更智能、更高效。Meta的悄然转身,或许标志着元宇宙狂热的终结,但也可能预示着下一代人机交互真正的起点。
本周,空间计算软件与基础设施提供商RP1正式向开发者开放其开放式空间生态系统。12月8日,公司发布了首套公开工具集与技术文档,允许用户基于自有服务器构建并托管实时3D体验。此举旨在让创作者、开发者和企业真正掌握数据主权,并自主掌控其在"空间互联网"中的变现路径。RP1强调,当前XR行业过度依赖封闭平台,已暴露出严重隐患--从HoloLens、8thWall到MozillaHubs和AltSpace的相继关停,无不印证了一个核心问题:没有开放生态,就没有真正的内容控制权。"传统2D浏览器从未被设计用于基于位置的连接,更无法无缝整合AI、电商、教育、社交与娱乐等领域的数百万实时服务,且无需安装。"--RP1联合创始人兼CEOSeanMannMann进一步指出,企业在"围墙花园"式平台中构建空间应用存在巨大风险。一旦硬件厂商调整战略(如微软停止对HoloLens的XR支持),多年投入可能瞬间归零。因此,空间互联网亟需一种全新的3D浏览器--一个开放通道,支持在任意服务器、任意设备上运行空间基础设施,并保障企业级数据安全与管理权限。四大核心技术组件,构建开放空间网络为支撑这一愿景,RP1推出了多项底层技术:开放标准元宇宙浏览器:基于3D空间位置的浏览器,兼容VR、AR、移动及桌面设备,实现跨端无缝访问。通用空间织网:一套共享坐标系统,可实时连接用户与第三方自托管服务及AR/VR内容。自托管空间服务器:允许用户完全掌控自己的3D空间与AI智能体,摆脱平台依赖。网络服务对象:统一API接口,支持实时、无状态服务,涵盖AI、支付、物联网、多人逻辑等模块。Statabase架构:专为空间互联网设计的高扩展性软件架构,在非分片环境中实现完整空间音频与6自由度支持;据称其计算与能耗效率比传统方案最高提升1000倍。RP1联合创始人兼首席架构师DeanAbramson补充道,移动时代依赖App下载的模式,在空间计算场景中已不再适用--当物理位置成为交互核心,服务必须按需流式加载,而非预先安装。开发者现已可接入,生态建设将持续至2026年即日起,开发者可通过RP1官方开发者中心注册,学习如何部署元宇宙服务器、创建持久化3D环境,并将其接入通用空间织网。公司表示,更多API、开发指南与示例项目将在2026年前陆续推出,逐步完善整个开放生态。这场布局,或许正是对"谁拥有元宇宙"这一终极问题的直接回应。开发者中心:https://dev.rp1.com/
在近日举办的特别活动中,Google正式公布了一项名为'系统自动空间化'(SystemAutospatialization)的AI新功能。该技术可将任意2D内容--包括从PC串流的游戏、网页、视频等--实时转化为沉浸式3D体验,并计划于2026年登陆AndroidXR平台。唯一支持视频实时3D化的XR平台目前,ApplevisionOS与PICOOS等系统已支持将2D照片一键转为3D视图,但在视频和动态应用内容的实时空间化方面,AndroidXR将成为首个在头显端实现该能力的操作系统。尽管Viture等XR眼镜也具备类似功能,但Google此次将其集成于完整的XR操作系统中,且运行在高通XR2+Gen2芯片上,这意味着在承载完整系统负载的同时,芯片还需实时处理复杂的AI空间推理任务。据Google介绍,系统自动空间化将支持"几乎所有"应用程序,并可同时在多个应用中生效。演示画面展示了用户通过PC串流运行《城市:天际线》(Cities:Skylines)时,AI能智能区分前景UI界面与背景3D城市场景,仅对后者进行深度重建,从而保留操作逻辑的同时增强沉浸感。该功能预计将在2026年随AndroidXR系统更新,率先登陆三星GalaxyXR等设备。届时,用户无需开发者适配,即可在现有2D生态中获得原生级的空间体验。