空间计算公司EvenRealities正式启动面向其第二代智能眼镜「EvenG2」的早期开发者计划--EvenHubPilotProgram。该计划旨在通过提供开发平台的抢先访问权限,与精选开发者深度协作,加速打造真正贴合日常场景的空间化应用体验。不同于常规的开放测试,该PilotProgram采用小规模、高互动的"早期访问群组"(cohort)模式,专为希望将创意快速转化为可运行原型的开发者设计。入选者将获得:直接对接Even平台团队,获取一手技术反馈;优先体验EvenHub最新功能,包括尚未公开的API与工具链;加入专属Discord开发者社区,与其他参与者共享进展、协作迭代。所有核心交流与协作将在Discord上进行,确保高效沟通与快速响应。聚焦HUD体验,让开发者专注UX而非硬件适配「EvenHub」作为官方开发平台,提供一套完整的API接口,用于连接EvenG2应用。其设计理念明确:让开发者摆脱底层硬件限制,专注于空间交互与用户体验本身。尤其针对抬头显示(HUD)场景中关键的UX问题--例如"哪些信息能被直觉感知?"、"如何避免遮挡现实视野?"--EvenHub支持在本地开发环境中快速反复验证与优化,大幅缩短从构想到可用原型的周期。EvenG2:轻若无物,专为日常而生的视觉增强眼镜作为该生态的硬件载体,EvenG2于2025年11月发布,目前已在全球开启预订。其核心定位并非全能型AR眼镜,而是高度克制、专注视觉辅助的日常穿戴设备:采用绿色单色Micro-LED显示屏,分辨率提升至640×480(前代G1为640×200),亮度达1000尼特,视场角20度,显著增强户外可视性;机身由镁合金与钛合金打造,镜框厚度较前代减少50%,外观更接近普通眼镜,重量轻盈、佩戴自然;不搭载摄像头与扬声器,仅提供HUD信息显示,兼顾隐私与社会接受度;支持Bluetooth5.3与UWB(超宽带),具备IP54防尘防水等级,续航长达2天以上。其应用场景聚焦于实时翻译、步行导航、提词器等轻量但高频的需求,目标是让数字信息"无声融入"现实视野,而非打断用户对真实世界的感知。EvenRealities表示,希望通过EvenHubPilotProgram与开发者共同构建一个以"空间体验"为核心的实用化应用生态。目前,感兴趣者可通过官网专用表单提交申请。
只需输入一段文字或一张图片,就能即时生成一个完整、连贯且可自由漫游的3D虚拟空间--这正是AI初创公司SpAItialAI最新推出的生成式模型Echo所实现的能力。该技术不仅大幅降低3D内容创作门槛,更重新定义了人与虚拟空间的交互方式。真正的"空间生成",而非像素拼接Echo背后的核心技术是一种被称为空间基底模型(SpatialFoundationModel,SFM)的新型AI架构。与传统生成模型聚焦于像素不同,SFM直接以物理空间本身为生成对象。它能基于现实世界的物理规律,在米级尺度上预测完整的3D场景结构,确保新视角、深度图及交互结果均源自同一个一致的底层世界模型。这意味着,无论用户从哪个角度观察或如何操作环境,所见内容都具备几何与语义上的一致性,避免了传统方法常见的视角断裂或逻辑矛盾问题。实时交互+低门槛访问,人人皆可创作3DEcho生成的3D世界支持实时相机控制与即时渲染,即使在普通笔记本电脑或低性能设备上,也能通过网页浏览器流畅运行,无需高端显卡或专业VR设备。这种轻量化设计使其覆盖人群从专业设计师延伸至普通消费者。更关键的是,Echo并非"一次性输出"。用户可在生成后对3D场景进行深度编辑:更换材质、增删物体、整体风格重绘等操作均可实现,且系统会自动维持场景的三维一致性,确保修改后的世界依然逻辑自洽、视觉连贯。应用场景广阔,从游戏到机器人仿真凭借上述特性,Echo为多个领域打开了新的工作流可能:数字孪生:快速构建真实环境的可交互复刻;游戏开发:一键生成基础关卡并支持后续迭代;3D设计与建筑可视化:从草图或描述直接进入空间体验;机器人训练:在符合物理规律的合成环境中进行仿真学习。目前,SpAItialAI已在其官网展示多个由Echo生成的示例世界,并开放封闭测试注册通道。用户仅需提供一段文本或单张图像,即可尝试构建属于自己的可编辑3D宇宙。体验申请:https://www.spaitial.ai/join-waitlist
在近日于布鲁塞尔举办的UnitedXR大会上,智能隐形眼镜开发商XPANCEO首次公开展示其专为轨道、月球及深空任务设计的最新智能隐形眼镜原型。该设备与宇航服头盔集成,旨在解决传统可穿戴界面在太空环境中的根本性局限。太空场景下的交互痛点催生新方案在舱外活动中,宇航员佩戴厚重手套,难以操作触屏设备--现实中甚至需用鼻子点击平板。同时,智能眼镜等头戴设备在微重力或密闭空间中易造成视野遮挡、重心偏移或碰撞风险。XPANCEO指出,现有交互方式高度依赖语音指令,信息反馈缺乏视觉锚定,影响操作效率与安全性。其新原型通过将全息显示直接投射至视网膜,构建"零干扰"数据界面:既不阻碍视线,也不增加头部负载,确保宇航员在复杂任务中保持自然姿态与快速响应能力。技术架构:模块化设计支持多路径演进当前原型采用分体式架构--隐形眼镜本身集成微型光学元件,而图像源与电源模块嵌入宇航头盔内部,通过无线方式供能与传输数据。XPANCEO强调,该配置具备高度灵活性,未来可适配不同光学方案,包括已在其他原型中验证的集成式微显示屏版本。该思路延续了公司此前在赛车头盔中应用全息显示的经验,但针对极端环境(如真空、辐射、温变)进行了可靠性强化。成立于2021年的XPANCEO致力于将AR、生物传感与健康监测融合于单片智能隐形眼镜。其技术矩阵已涵盖:AR视觉透镜、无线供能伴侣设备,以及内置微型电池的自主运行版本。此次太空原型不仅是场景拓展,更是对其"无感计算"理念在高可靠性领域的关键验证。对航天、工业AR及远程操作领域而言,XPANCEO的方案提供了一条摆脱手持或头戴设备束缚、实现真正"眼即界面"的技术路径。
随着虚拟现实、增强现实及混合现实技术的融合趋势日益明显,XR生态系统正迎来新一轮竞争高潮。一边是Meta推出的SpatialSDK/HorizonOS,旨在简化Quest设备上的开发流程;另一边则是由Google联合三星和高通共同打造的AndroidXROS,力图成为开放标准的空间计算操作系统。两者虽都致力于推动XR开发的普及化,但其背后的产品理念却截然不同。MetaSpatialSDK/HorizonOS:简化引擎依赖,加速原生开发Meta的SpatialSDK允许开发者使用Android原生工具(如Kotlin、AndroidStudio及相关库)直接为Quest系列设备构建XR应用,无需依赖重型游戏引擎。核心功能:空间锚点:在物理世界中固定虚拟对象;共享空间:支持多人协作与社交互动;透视相机:将现实环境无缝融入虚拟体验;HorizonOSUI组件:提供统一的用户界面设计元素;MR实用套件:辅助开发MR场景下的交互逻辑。手势识别:支持捏合、滑动、点击等基础手势,以及完整的手部追踪能力。AI功能:上下文感知UI:基于环境理解自动调整界面布局;AI驱动的空间认知:提升场景理解和物体识别精度;自适应MR混合:根据不同光照条件动态优化虚实叠加效果。最佳适用人群:适用于已深度嵌入Meta生态圈的开发者,特别是那些希望摆脱传统游戏引擎束缚,探索轻量化XR工作流的专业人士。开发者资源链接:MetaSpatialSDK示例代码(GitHub)MetaHorizonOS开发者资源AndroidXROS:跨平台兼容,拥抱开放生态由Google主导、三星与高通共同参与的AndroidXROS是三星GalaxyXR头显及ProjectAuraAI眼镜背后的动力源泉,定位为一个面向多终端的开放式空间计算平台。核心功能:跨平台XR开发:确保应用能在不同硬件上流畅运行;SnapdragonSpaces集成:利用高通芯片组的强大算力;沉浸式生产力与娱乐:覆盖从办公到游戏的全方位应用场景。手势识别:提供捏合、抓取、滑动等复杂手势支持,并兼容触控板输入及手柄操作。AI功能:AI眼镜(ProjectAura):集成语音+手势的多模态输入方式;AI驱动的空间计算:通过智能算法优化用户体验。最佳适用人群:适合追求开放架构、企业级XR解决方案及AI增强体验的开发者群体。开发者资源链接:AndroidXR官方开发者页面AndroidXRSDK开发者预览博客FramesixtyAndroidXR开发指南这场XR平台之争,不仅是技术层面的竞争,更是对未来人机交互模式话语权的争夺。无论是Meta的封闭生态还是Google的开放联盟,都将深刻影响下一代空间计算产品的走向与发展路径。对于开发者而言,选择哪条道路,或许意味着不同的创新机遇与市场前景。特征区域MetaSpatialSDK/HorizonOSAndroidXR操作系统核心能力空间锚点、共享空间、透视、地平线用户界面跨平台XR、骁龙空间、生产力、游戏手势捏合、滑动、点击、全手追踪捏合、抓取、滑动、触控板、混合输入人工智能功能情境感知用户界面、AI空间锚点、混合现实实用工具包人工智能眼镜、多模态输入、人工智能驱动的空间计算生态系统契合度MetaQuest设备,HorizonOS三星GalaxyXR、ProjectAura、开放式 AndroidXR
2021年"元宇宙"被高调推上神坛--它被描绘成人类数字迁徙的下一站:一个闪亮的新大陆,人们将在其中社交、购物、建造、进化,甚至不再需要挺直腰背。然而,现实很快泼来冷水。人们开始问出那个尴尬却致命的问题:"到底谁在用这个?"如今,2025年即将落幕,叙事再次转向:AR可穿戴设备正悄然取代元宇宙,成为科技巨头与用户共同关注的焦点。原因很简单--它们真正融入了日常生活。700亿美元的豪赌,换来一场现实检验Meta对元宇宙的押注堪称孤注一掷。2021年公司直接更名,并持续向RealityLabs(其XR业务部门)投入巨资,如同坚信下一把轮盘就是"赢局"。尽管MetaQuestVR眼镜在2024年拿下了全球VR/AR市场约70%的份额,吸引了企业和消费者目光,但距离扎克伯格所期望的"大众普及",仍有遥远距离。财务数据尤为刺眼:仅2025年第三季度,RealityLabs就录得44亿美元运营亏损,自2020年底以来累计亏损已逼近700亿美元。如此规模的投入,自然引发外界质疑:"这笔账,最终能回本吗?"MetaConnect2025:战略重心转向AI驱动的轻量级AR眼镜在2025年的MetaConnect大会上,公司新方向已然清晰。扎克伯格依然坚信XR将取代智能手机,但通往这一未来的路径,正从笨重的头显转向AI赋能的智能眼镜--这一思路也与苹果、三星不谋而合。最新动作包括:与Ray-Ban推出新一代智能眼镜;宣布与Oakley达成全新合作;推进神经腕带(neuralwristband)研发;收购AI可穿戴初创公司Limitless。Limitless联合创始人兼CEODanSiroker表示:"Meta最近宣布了将'个人超级智能'带给每个人的愿景,而AI可穿戴设备是其中关键一环。我们认同这一方向,并将加入Meta共同实现它。"值得注意的是,RealityLabs同时负责元宇宙与AR技术。如今的资源倾斜,实则是一次明确的战略重构:从构建虚拟世界,转向打造日常可用的增强现实工具。从"建筑乌托邦"到"室内装修":技术哲学的根本转变元宇宙的原始构想过于宏大--它要求用户彻底迁移到另一个维度,重建身份、经济与社交规则,却称之为"无摩擦体验"。这显然违背了人类的基本行为逻辑:我们连切换浏览器标签都嫌麻烦,更别说搬进虚拟世界。相比之下,AR采取了截然不同的策略:不取代现实,而是增强它。它像"室内设计",在已有生活场景中叠加信息、提供上下文、辅助决策,而不打断真实的人际互动。这种从"逃避主义"到"实用主义"的转向,正是市场反复验证的结论:空间计算的未来,不在于打造一个新目的地,而在于让现实世界变得更智能、更高效。Meta的悄然转身,或许标志着元宇宙狂热的终结,但也可能预示着下一代人机交互真正的起点。
本周,空间计算软件与基础设施提供商RP1正式向开发者开放其开放式空间生态系统。12月8日,公司发布了首套公开工具集与技术文档,允许用户基于自有服务器构建并托管实时3D体验。此举旨在让创作者、开发者和企业真正掌握数据主权,并自主掌控其在"空间互联网"中的变现路径。RP1强调,当前XR行业过度依赖封闭平台,已暴露出严重隐患--从HoloLens、8thWall到MozillaHubs和AltSpace的相继关停,无不印证了一个核心问题:没有开放生态,就没有真正的内容控制权。"传统2D浏览器从未被设计用于基于位置的连接,更无法无缝整合AI、电商、教育、社交与娱乐等领域的数百万实时服务,且无需安装。"--RP1联合创始人兼CEOSeanMannMann进一步指出,企业在"围墙花园"式平台中构建空间应用存在巨大风险。一旦硬件厂商调整战略(如微软停止对HoloLens的XR支持),多年投入可能瞬间归零。因此,空间互联网亟需一种全新的3D浏览器--一个开放通道,支持在任意服务器、任意设备上运行空间基础设施,并保障企业级数据安全与管理权限。四大核心技术组件,构建开放空间网络为支撑这一愿景,RP1推出了多项底层技术:开放标准元宇宙浏览器:基于3D空间位置的浏览器,兼容VR、AR、移动及桌面设备,实现跨端无缝访问。通用空间织网:一套共享坐标系统,可实时连接用户与第三方自托管服务及AR/VR内容。自托管空间服务器:允许用户完全掌控自己的3D空间与AI智能体,摆脱平台依赖。网络服务对象:统一API接口,支持实时、无状态服务,涵盖AI、支付、物联网、多人逻辑等模块。Statabase架构:专为空间互联网设计的高扩展性软件架构,在非分片环境中实现完整空间音频与6自由度支持;据称其计算与能耗效率比传统方案最高提升1000倍。RP1联合创始人兼首席架构师DeanAbramson补充道,移动时代依赖App下载的模式,在空间计算场景中已不再适用--当物理位置成为交互核心,服务必须按需流式加载,而非预先安装。开发者现已可接入,生态建设将持续至2026年即日起,开发者可通过RP1官方开发者中心注册,学习如何部署元宇宙服务器、创建持久化3D环境,并将其接入通用空间织网。公司表示,更多API、开发指南与示例项目将在2026年前陆续推出,逐步完善整个开放生态。这场布局,或许正是对"谁拥有元宇宙"这一终极问题的直接回应。开发者中心:https://dev.rp1.com/
在近日举办的特别活动中,Google正式公布了一项名为'系统自动空间化'(SystemAutospatialization)的AI新功能。该技术可将任意2D内容--包括从PC串流的游戏、网页、视频等--实时转化为沉浸式3D体验,并计划于2026年登陆AndroidXR平台。唯一支持视频实时3D化的XR平台目前,ApplevisionOS与PICOOS等系统已支持将2D照片一键转为3D视图,但在视频和动态应用内容的实时空间化方面,AndroidXR将成为首个在头显端实现该能力的操作系统。尽管Viture等XR眼镜也具备类似功能,但Google此次将其集成于完整的XR操作系统中,且运行在高通XR2+Gen2芯片上,这意味着在承载完整系统负载的同时,芯片还需实时处理复杂的AI空间推理任务。据Google介绍,系统自动空间化将支持"几乎所有"应用程序,并可同时在多个应用中生效。演示画面展示了用户通过PC串流运行《城市:天际线》(Cities:Skylines)时,AI能智能区分前景UI界面与背景3D城市场景,仅对后者进行深度重建,从而保留操作逻辑的同时增强沉浸感。该功能预计将在2026年随AndroidXR系统更新,率先登陆三星GalaxyXR等设备。届时,用户无需开发者适配,即可在现有2D生态中获得原生级的空间体验。
在空间计算浪潮席卷全球之际,Meta正式推出SegmentAnythingModel3D(SAM3D),将传统的2D图像理解能力推向全新维度。这项突破性技术仅需单张普通照片,即可精准重建出完整的3D物体、场景甚至人体模型,让每一帧手机快照或网络图片瞬间转化为可交互、可部署的沉浸式数字资产。从平面到空间:打破屏幕的牢笼过去数十年,我们的数字生活被禁锢在二维屏幕上--点击、滑动、观看,却始终与物理世界隔绝。SAM3D正在瓦解这一边界:一张椅子的照片不再只是静态图像,而是一个可360°旋转、自由缩放、导入虚拟房间的真实3D对象;一个人物快照也能变成可用于社交Avatar或全息通信的立体化身。Meta已率先将该技术落地于FacebookMarketplace的"ViewinRoom"功能。用户不再需要凭空想象沙发尺寸是否合适,而是直接将其3D模型"放置"在自家客厅中,从任意角度查看搭配效果--电商体验由此迈入空间化时代。直面真实世界的复杂性传统3D重建常因遮挡、杂乱背景或多视角缺失而失败。SAM3D却能从容应对这些现实挑战:即使物体部分被遮挡,系统仍可推断完整结构;在凌乱环境中精准分离目标主体;支持非正面、低光照等"不完美"输入。其背后依托超大规模预训练模型与人在回路(human-in-the-loop)反馈机制,在保证高精度的同时实现接近实时的推理速度,为消费级应用和创意工作流提供坚实支撑。赋能XR、机器人与下一代交互SAM3D的意义远超图像处理本身,它正在催生多个领域的范式变革:AR/VR内容创作民主化:无需建模技能,拍照即得3D资产;虚拟零售革命:商品数字化成本骤降,沉浸式购物成为标配;空间通信新形态:未来视频通话或将传送3D化身而非2D画面;机器人环境理解:帮助机械臂更准确识别与操作现实物体。开源驱动生态,加速3D普及Meta延续其开放策略,同步开源了SAM3D的模型权重、评估基准与开发者工具包,并上线了直观易用的在线Playground。全球开发者、设计师、教育者均可立即上手实验,共同推动从"2D屏幕时代"向"动态3D世界"的主流迁移。SAM3D如何改变你的数字生活?一键生成3D:手机照片秒变精细3D模型零门槛创作:普通人也能制作XR内容重塑电商体验:家具、服饰"试穿试摆"更真实赋能硬件生态:为XR眼镜、MR设备提供实时3D引擎激发全球创新:通过开源持续推动技术演进在Playground中测试Sam3Dhttps://aidemos.meta.com/segment-anything/gallery
11月19日,Apple正式公布了2025年AppStore年度奖项的全球决赛入围作品名单。来自世界各地开发者的45款应用与游戏脱颖而出,涵盖12个类别。评选标准聚焦于创新性、易用性以及文化影响力,最终获奖者将于未来数周内揭晓。AppleAppStore全球负责人CarsonOliver表示:"这些入围作品展现了开发者对卓越体验的不懈追求。他们通过创造力与技术拓展了用户的可能性边界,也让我们看到游戏如何成为探索世界的新方式。"VisionPro年度最佳应用:三款空间计算标杆之作在专为AppleVisionPro设立的"年度最佳应用"类别中,三款作品凭借出色的视觉表现与沉浸式体验入选:《CamoStudio》:一款功能强大的直播与视频创作工具,支持灵活的多机位控制与实时剪辑,充分发挥VisionPro的空间交互优势;《D-Day:TheCameraSoldier》:以第一人称叙事重现诺曼底登陆的历史体验,用户仿佛亲身置身战场,感受战争中的勇气与人性;《ExplorePOV》:基于AppleImmersiveVideo技术打造,让用户"亲临"全球标志性地点,如冰岛火山、东京街头等,带来身临其境的旅行体验。这三款应用不仅展示了高水准的视觉渲染能力,更重新定义了空间计算时代的内容创作与叙事方式。年度最佳游戏:沉浸、策略与光影的艺术"年度最佳游戏"同样有三款作品入围,风格迥异却各具匠心:《FishingHaven》:一款宁静治愈的水下垂钓模拟器,玩家可在波光粼粼的湖面与深海中感受自然的节奏与冥想般的放松;《Gears&Goo》:融合策略建造与角色养成的独特玩法,搭配鲜明美术风格,打造出兼具深度与趣味的关卡挑战;《PortaNubi》:以"操控光线"为核心机制的解谜游戏,玩家需利用反射、折射与阴影解开精巧的空间谜题,体验光与影的诗意互动。VisionPro引领沉浸式体验整体来看,本届VisionPro相关入围作品标志着空间计算与沉浸式娱乐进入新阶段。无论是叙事、创作还是游戏,开发者正充分利用visionOS的3D界面、眼动追踪与空间音频等特性,探索人机交互的未来形态。随着获奖名单即将公布,这些作品不仅代表2025年移动与空间应用的最高水准,也为行业指明了下一代沉浸式内容的发展方向。
2025年10月10日,日本知名云计算服务商樱花互联网(SakuraInternet)与XR技术企业STYLY宣布达成战略合作,双方签署基本协议,将围绕"物理AI"(PhysicalAI)领域展开深度协同。合作目标是融合高性能云计算与扩展现实技术,打造面向智能眼镜的下一代AI交互基础设施。当前,智能眼镜正逐步从概念走向实用,成为AI落地的重要终端形态。物理AI作为连接数字智能与现实世界的桥梁,通过传感器、XR设备与人工智能的融合,使AI能够理解真实空间中的环境与人类行为。而智能眼镜作为贴身终端,具备持续感知、低干扰交互的优势,被视为继手机之后的下一代人机接口。安全可信云底座:数据本地化处理成关键优势樱花互联网以稳定、安全的IDC服务起家,近年来积极布局AI算力市场,推出"高火力"与"SakuraAI"等面向生成式AI的云服务平台。其核心竞争力在于所有数据中心均部署于日本境内,实现数据全程境内流转,满足金融、制造、科研等领域对数据主权与合规性的高要求。在此次合作中,樱花互联网将提供高性能、低延迟的云基础设施,确保由智能眼镜采集的空间数据、视觉信息与用户行为在本地完成处理,避免敏感数据跨境传输。这一"本地化处理"模式,为高安全等级场景下的AI应用提供了可靠支撑,也为未来中国等市场对数据治理日益严格的环境下提供了可借鉴的技术路径。XR平台赋能空间交互:重构人与信息的连接方式STYLY是日本领先的AR/XR内容与平台服务商,其自研的"STYLY"平台支持跨终端的沉浸式内容快速搭建,广泛应用于品牌营销、展览展示、文娱演出等领域。公司拥有扎实的空间计算能力与XR交互设计经验,擅长将数字内容自然融入现实空间。在合作中,STYLY将负责XR界面开发、空间交互逻辑设计及内容生态运营。通过其平台能力,实现AI智能体在三维空间中的可视化呈现与自然交互。例如,在工业巡检中,维修人员通过眼镜即可看到设备运行状态、故障提示与AI操作建议,大幅提升作业效率。聚焦智能眼镜:探索多行业落地场景双方计划联合研发专为智能眼镜优化的AI解决方案,重点推进以下方向:AI智能体应用:开发具备环境感知与任务执行能力的虚拟助手;空间UI/UX创新:基于空间计算重构交互范式,提升操作直觉性;跨行业场景拓展:覆盖教育、零售、文旅、制造等多个领域。例如,在零售门店,店员佩戴智能眼镜可实时获取顾客画像与AI推荐话术;在教育培训中,教师可通过AR界面动态展示三维模型,增强教学沉浸感。随着AI向物理世界延伸,云计算、空间计算与终端设备的协同正成为技术落地的关键。此次樱花互联网与STYLY的合作,不仅展现了日本在XR与边缘AI领域的布局,也为中国企业在构建安全、高效、沉浸式人机交互体系方面提供了有价值的参考。