总部位于日本福冈市的HMS公司近日宣布推出专为工业用途设计的新型增强现实AR眼镜产品--"SiNGRAYARGlassesG2"。该产品旨在为制造、建筑、医疗、物流等多个行业的现场作业提供高效支持,通过将数字信息叠加到真实世界画面中,提升工作效率并减少操作失误。📌无需动手即可确认工作流程"SiNGRAYARGlassesG2"具备无需手动操作即可查看工作流程的功能。用户在执行任务时,可通过眼镜直接目视查看操作手册和注意事项内容,实现边看边做。此外,设备还支持在虚拟空间中开展培训与教育,同时具备将现场视频实时传输至远程地点、获取专家指导的支持功能。🔧硬件配置亮点突出在硬件方面,"SiNGRAYARGlassesG2"采用鸟盆式光学系统,可提供:全高清分辨率(1920x1080)90Hz刷新率47°视野角度核心性能方面搭载高通QCS8550处理器,配备12GB或16GB内存+256GB存储空间,满足复杂任务处理需求。设备具备IP65防尘防水等级,并内置4800mAh可热插拔电池,保障长时间稳定使用。开发环境方面,该设备全面支持OpenXR标准和Unity的ARFoundation框架,便于开发者快速构建高质量AR应用。🛠支持工业3D手册平台"frontline.io""SiNGRAYARGlassesG2"支持的应用程序是工业3D手册创建平台"frontline.io"。该平台由HMS作为日本地区独家代理商提供,用户可通过视频直观了解设备和机械的操作方式。通过在现场实时查看操作步骤,有望显著提升生产效率和维护准确性。🎯即将亮相XRMetaverse综合展览会"SiNGRAYARGlassesG2"将于2025年7月2日至4日在东京国际展览中心举办的XR&Metaverse综合展览会上首次公开亮相,届时欢迎各界人士莅临参观体验。SiNGRAYAR眼镜G2产品信息光学系统BirdBath光学系统显示分辨率1920×1080帧速率90赫兹视野(FOV)对角线:47º±2º,水平:30º,垂直:22.7º对比度100000:1中央处理器高通QCS8550(8Gen2)内存12/16GB只读存储器256GB视觉处理单元英特尔MovidiusMyriadX立体VSLAM鱼眼相机640x480@50fps,DFOV166°RGB相机自动对焦,13MP@30fps,DFOV79°深度ToF相机HQVGA@30帧/秒,0.2-4百万像素惯性测量单元9轴(1000Hz)SLAM引擎1000Hz,6自由度|3自由度声音的立体声扬声器、麦克风电池4800mAh,3.8V,可更换,热插拔防尘防水IP65外部连接DP1.2,USB3.1C型SDKOpenXRSDK、AR基础(Unity)💡关于HMS公司HMS成立于2018年,总部设在日本福冈市博多区,由CEO胡振成领导。公司目前在日本、法国和中国共拥有30名员工,秉持着"用科技释放无限想象"的企业愿景,致力于利用边缘AI技术推动工业领域的数字化转型。公司核心技术为结合了高速VisualSLAM与AI的3D视觉传感技术,已成功推出AI智能摄像头系列"SiNGRAY"以及云端AI图像处理平台"SiNGRAYNET",并在智能终端与云端两大领域持续拓展业务。🌍积极推进全球化布局HMS注重全球市场发展,在中国、法国、美国等地设立集团公司,围绕各区域开展智能视觉模块及云端联动解决方案的研发,建立了面向国际市场的产品开发与服务体系。📌编者按:随着AR技术在工业场景中的深入应用,HMS推出的"SiNGRAYARGlassesG2"不仅体现了其在边缘计算与3D视觉感知方面的深厚积累,也标志着该公司在工业AR领域迈出了关键一步。这款产品未来在制造业、医疗、物流等行业的落地应用值得期待。
近日,OpenXR联盟发布了全新的"OpenXR空间实体扩展(SpatialEntitiesExtensions)"标准,旨在为AR、VR和MR应用提供一套通用的技术接口,以实现对现实世界环境的感知和交互。这些新标准涵盖了:表面检测(SurfaceDetection)标记追踪(MarkerTracking)空间锚点(SpatialAnchors)数据持久化(Persistence)这些功能长期以来依赖于各厂商自有的SDK或扩展接口,如今首次在OpenXR框架下实现了标准化。📚什么是OpenXR?OpenXR是一个面向AR、VR和MR应用开发与运行时的开放标准API。它由非营利性行业联盟KhronosGroup主导管理,该组织同时也是OpenGL、Vulkan和WebGL等图形标准的维护者。OpenXR的核心理念是:让开发者只需编写一次应用代码,即可在多种头显设备上运行,而无需为不同硬件平台使用各自的专属API。目前,几乎所有的主流头显设备、引擎和运行时都已支持OpenXR,苹果VisionPro和PlayStationVR2(PS5平台)除外。🧱OpenXR空间实体扩展详解此次发布的OpenXR空间实体扩展目标在于为开发者提供一套统一的方式,利用头显或眼镜的空间感知能力,构建能够与用户物理环境互动的应用体验。在此之前,这类功能往往依赖于特定厂商的扩展或SDK实现。现在,它们被整合进OpenXR的标准化体系中,大大提升了跨平台兼容性和开发效率。该扩展体系围绕一个基础扩展:✅XR_EXT_spatial_entities这是整个空间实体功能的基础模块,提供了"在用户环境中表示和操作空间元素"的基本能力。在此基础上,还定义了五个关键子扩展:🪟1.XR_EXT_spatial_plane_tracking功能:对现实世界中的平面进行检测与空间追踪用途:可识别桌面、地面、墙面等表面,便于虚拟对象放置🧾2.XR_EXT_spatial_marker_tracking功能:对环境中的视觉标记(如QR码)进行六自由度(6-DOF)跟踪用途:可用于引导导航、触发事件、增强信息展示等场景📌3.XR_EXT_spatial_anchor功能:允许将虚拟内容精确地定位到现实世界中的具体位置用途:支持在特定地点固定虚拟物体,适用于导航、AR游戏、工业维修等🔒4.XR_EXT_spatial_persistence功能:让空间上下文数据在应用会话之间保持一致用途:用户关闭应用后再次打开时,仍能看到之前放置的虚拟对象🗂️5.XR_EXT_spatial_persistence_operations功能:提供对持久化空间数据的高级管理功能用途:包括空间数据的查询、删除、更新等操作,适用于企业级AR场景🗣️官方表态:推动互操作性生态建设Meta的RonBessems是当前OpenXR工作组的主席,他在一份声明中表示:"OpenXR空间实体扩展解决了开发者社区最迫切的需求之一,是我们打造强大且真正可互操作的XR生态系统道路上的重要里程碑。这些扩展经过精心设计,作为一个可发现、可扩展的功能集合,不仅为当前的空间应用打下了坚实基础,也为未来便携式空间计算的持续创新铺平了道路。"🔜后续计划:图像与对象追踪、环境建模等扩展正在讨论中Khronos还透露,目前正在讨论中的后续扩展包括:图像与对象追踪(ImageandObjectTracking)基于网格的环境建模生成与处理(Mesh-basedEnvironmentModeling)这些功能将进一步丰富空间计算的能力边界。💼行业广泛支持:Meta、Google、Unity等七家公司承诺尽快支持包括Meta、Google、pico、Varjo、Unity、Godot和Collabora在内的七家科技公司均已发布官方声明,表达对OpenXR空间实体扩展的支持,并承诺将在其产品和服务中尽快实现这些标准。这标志着OpenXR正在成为全球XR开发者生态系统的核心支柱。📌编者按:随着空间感知能力的标准化,OpenXR再次迈出推动跨平台互操作性的关键一步。对于开发者而言,这意味着更少的适配工作、更高的复用率;对于用户而言,则意味着更稳定、更一致的空间体验。随着更多头部企业的加入,这一标准有望在未来几年内成为XR领域的"事实标准"。
Meta最近在其Quest设备上的HorizonOS浏览器v39版本中,引入了一项重要的实验性功能:自动共位(Colocated)WebXR支持。这意味着多个佩戴VR头显的用户现在可以在同一个物理空间中,通过网页浏览器建立共享的虚拟坐标系,从而实现协同交互。此前,在WebXR中实现共位体验通常需要用户手动使用控制器或手势去"触碰"一个共享参考点来对齐坐标。而现在,这项新功能可以让设备在进入WebXR会话时自动创建一个共享的空间坐标系统,大大简化了开发流程和用户体验。Meta浏览器团队工程师RikCabanier分享了一段简短视频演示该功能的实际运行效果,并在GitHub上提供了示例代码供开发者参考。这个演示项目使用了PeerJS来实现在不同头显之间的本地网络连接。你也可以亲自在自己的Quest设备上访问sharedshooter.arvr.social进行测试。以下是Cabanier从开发者角度对这一"共享空间(SharedSpaces)"功能的详细说明:共享空间的工作机制共享空间与房间大小绑定每个共享空间的范围受限于房间的大小。距离较远的头显将不会加入当前空间,但如果它们靠近后,就有可能自动加入该空间。站点隔离原则共享空间只对特定网站可见。例如,bar.com/a.html和bar.com/b.html虽然属于同一域名,但会被视为两个不同的页面,因此各自获得独立的共享空间和唯一标识符(UUID)。初始化过程可能有延迟当WebXR会话启动时,可能需要几秒钟时间才能正确识别并加入对应的共享空间。在这期间,浏览器会返回一个默认的共享空间。一旦正确的空间被识别,就会触发一个"reset"事件,并建立新的坐标系统和UUID。如果当前设备是第一个进入沉浸式模式的,则不会触发reset事件。参与者可以自由进出用户可以随时加入或退出共享空间。当重新启动WebXR会话时,他们仍能重新建立相同的共享坐标系统。(设计上规定:第一个创建共享空间的设备将成为整个共享坐标的原点。)退出WebXR会丢失共享空间当某个参与者退出WebXR会话后,它将失去对该共享空间的访问权限。再次进入时,需要重新建立共享空间。最后一个离开者决定空间是否保留所有参与者都可以自由地加入或离开共享空间,但一旦最后一个参与者离开,该共享空间将被销毁。未来可能会支持恢复功能,但目前还在收集开发者反馈以确定合适的API设计。当前限制:仅限于Quest头显之间需要注意的是,目前这项功能仅支持Meta的Quest系列头显,因为它底层依赖的是Meta自有的SharedSpatialAnchors(共享空间锚点)技术,而目前还没有面向OpenXR的通用厂商中立扩展标准。这种限制不仅存在于WebXR中,对于本地应用也同样适用。举例来说:AppleVisionPro目前尚未支持共享锚点;pico则使用自己独立的一套共享锚点系统。如何启用SharedSpaces功能?如果你希望在你的Quest浏览器中尝试这一功能,请按以下步骤操作:在浏览器地址栏输入:chrome://flags搜索关键词:"WebXRexperiments"将该选项设为"Enabled"重启浏览器即可生效这项功能的推出标志着WebXR在多用户协作体验方面迈出了重要一步。虽然目前还存在平台兼容性的限制,但它为未来的共享虚拟空间开发提供了宝贵的实践基础。如果你是WebXR开发者,不妨前往官方提供的示例地址进行测试,探索如何利用"共享空间"打造更具沉浸感的多人在线体验。
最近Google在XR(扩展现实)领域动作频频,从和三星合作头显,到不断更新AndroidXR生态,整个行业都在蠢蠢欲动。尤其是在TED2025上,Google展示了AI+XR的未来图景--这说明,不只是游戏和社交,XR已经开始向企业级应用发力了。但问题是,虽然很多公司嘴上喊着"要搞XR",真正落地的却寥寥无几。为什么?不是技术不行,而是不知道从哪入手:选什么设备?要不要换系统?员工会不会不会用?有没有安全隐患?别急,今天我们就来聊聊,AndroidXR到底是什么?企业该怎么用?又该从哪里起步?一、什么是AndroidXR?它有什么特别的?简单来说,AndroidXR就是Google把AR/VR/MR都装进Android系统里的一套"操作系统"。你可以把它理解为是Google给VR头显、AR眼镜这些新设备准备的操作系统,就像当年安卓之于智能手机一样。它最大的优势就是:兼容性强:支持各种品牌、各种形态的硬件;开发门槛低:开发者可以用Unity、OpenXR这些熟悉的工具来做内容;开放标准:支持OpenXR,不绑定特定厂商;生态打通:能无缝接入GoogleCloud、PlayStore、GeminiAI等服务。一句话总结:它不是要做一个封闭的"元宇宙",而是想让XR成为企业数字化转型的一部分。二、企业为什么要关注AndroidXR?如果你是企业的决策者,可能会问:"这玩意儿到底能给我带来什么?"我们来看看它的几个核心价值:✅更高效的培训与协作比如工厂的新员工培训,以前靠老带新或者看视频,现在戴上XR设备,就能看到虚拟操作指南、实时语音指导,甚至模拟故障排查。效率高不说,还能降低出错率。✅更直观的产品展示销售团队可以给客户展示3D模型,客户不用拆箱也能"摸"清产品细节。尤其对家具、汽车、工业设备这类高价商品,沉浸式体验能大幅提升转化率。✅更智能的工作流借助GeminiAI,你可以在XR中加入语音助手、智能推荐、实时数据可视化等功能,让一线员工像"钢铁侠"一样工作。✅更环保的消费模式用户通过AR看衣服、看家具,减少退货率;通过VR参加线上展会,节省差旅成本……这些都让企业运营更可持续。三、企业如何开始部署AndroidXR?六个步骤讲清楚Step1:从你已经有的东西开始别想着一步到位买一堆头显。先看看你们公司有没有现成的Android手机、平板、Unity开发经验。因为AndroidXR是基于Android的,所以很多现有资源都能复用。开发者可以用Unity、OpenXR、WebXR来做内容;3D资产可以直接从Blender、Maya导入;App也可以直接发布到PlayStore;甚至连手势识别、空间UI、GeminiAI都内置好了,开箱即用。也就是说,你不需要从零开始,只需要找到合适的工具,组合一下就行。Step2:选好你的硬件设备目前市面上已经有几款AndroidXR兼容设备在路上了:三星ProjectMoohan头显(主打轻薄便携)Haean智能眼镜(类似AR眼镜)HTCVIVE的新一代企业MR头显而且由于AndroidXR支持跨平台,未来还会陆续有索尼、XReal、MagicLeap等厂商加入。建议企业先从小场景做起,比如:用手机和平板做3D展示用信息亭做自助导览再逐步引入头显、眼镜等设备初期做个试点项目,比如仓库培训、设备演示,验证效果后再慢慢扩大规模。Step3:安全合规不能忽视XR不只是个酷炫的技术,它也意味着更多数据采集、更多终端连接、更多潜在风险。所以企业在部署时要注意几点:是否支持加密、远程擦除、权限控制?是否能接入现有的MDM(移动设备管理)系统?数据是如何传输和存储的?是否符合隐私法规?目前AndroidXR基于Android系统,本身就有VerifiedBoot、PlayProtect等安全机制,但企业最好还是自己再做一次风险评估。Step4:把XR整合进你的系统里别让它变成孤岛。如果只是用来做个产品展示,那就太浪费了。真正的企业级XR应该能:和ERP、CRM系统打通接入实时数据仪表盘支持API调用,对接AI模型甚至整合IoT传感器、生产线数据AndroidXR支持OpenXR,几乎可以对接任何系统。你还可以通过Google的ImmersiveStream服务实现云端渲染,适合远程销售演示、客户导览等场景。Step5:别忘了培训你的员工再好的技术,没人会用也是白搭。好消息是,AndroidXR是基于Android的,所以员工对基础操作应该都不陌生。但如果你想让他们真正发挥XR的潜力,建议做点定制化培训:开发者看官方文档、参加训练营;普通用户做头显教程、模拟操作;加个GeminiAI助手提供实时帮助;再配上远程诊断、问题反馈机制。这样,员工才能真正把XR当成日常工作工具。Step6:从小处试水,逐步放大XR并不是一次性投资,而是一个持续迭代的过程。建议企业先选一个小场景试点,比如:新员工培训客户产品演示虚拟巡检维修然后根据使用情况收集数据,看看哪些功能受欢迎,哪些体验不好,再优化调整。你还可以让GeminiAI帮你分析数据趋势,生成报告给管理层参考。四、结语:XR正在成为企业标配XR不再是科幻电影里的黑科技,也不是只有大厂才玩得起的昂贵玩具。随着AndroidXR的推出,越来越多的企业可以低成本地接入这一新兴技术,并将其融入自己的业务流程中。无论是提升效率、增强体验,还是推动数字化转型,XR都将成为未来几年不可忽视的技术力量。所以,与其观望,不如现在就开始了解、尝试、小步快跑地推进。毕竟,谁也不想等到别人已经开始规模化用了,自己还在研究"这是啥"。
好消息传来:使用Godot引擎开发的游戏现在已经可以在visionOS上以窗口模式运行。而据透露,对苹果VisionPro设备的沉浸式扩展现实(XR)支持也计划在今年晚些时候推出。如果你还不熟悉,Godot是一款免费且开源的游戏引擎,被视为Unity和UnrealEngine的替代方案。它由非营利组织GodotFoundation管理,但所有代码开发都是完全公开进行的,任何人都可以参与贡献。苹果工程师为Godot提交visionOS支持代码上个月,一位来自苹果visionOS工程团队的员工,在Godot的GitHub仓库中提交了一个大型PullRequest(PR)。这项请求包含数千行新增代码,旨在为Godot添加对visionOS的原生支持,并附有一封请求将该功能合并进主分支的说明文档。这一举动引发了Godot社区的热烈讨论,反应不一。有开发者表示:"测试所需的硬件极其昂贵",并质疑核心开发团队是否"有兴趣长期维护visionOS支持"。还有人提出疑问:为什么visionOS应该作为核心功能集成,而不是通过插件或扩展实现?毕竟,每次添加新平台都需要持续维护和测试,这是一项不小的任务。核心开发者力挺visionOS支持:必须整合进引擎核心Godot的XR功能主要开发者之一BastiaanOlij对这些担忧提出了反驳。他在评论中称这个PR是"一个令人惊叹的里程碑",并对苹果的贡献表示感谢。Olij承认审查和测试这些代码将是"一项艰巨的任务",但他从技术角度指出:visionOS的支持只有整合进引擎核心才可行,无法通过插件来实现。最终,他的观点赢得了大多数人的认同。你可以看到,在该PR下,整个Godot社区齐心协力解决了各种问题,最终成功将visionOS的初始支持代码合并进了Godot的主分支。目前,visionOS支持还仅限于窗口模式运行游戏。完整的沉浸式XR支持则计划通过后续的插件形式提供。需要注意的是,尽管visionOS的代码已经合并,但它尚未出现在预编译的Godot发布版本中。不过,任何愿意从源码编译引擎的开发者,现在就可以开始为visionOS构建应用了。Godot已广泛支持主流XR平台得益于其对OpenXR协议的支持,Godot目前已经全面兼容多个XR平台,包括:PC上的SteamVR所有主流Android独立头显设备还实现了Meta特定的OpenXR扩展,支持Quest系列的多种高级功能,如:空间锚点(SpatialAnchors)内向外身体追踪(Inside-outBodyTracking)值得一提的是,BastiaanOlij曾表示,Godot在OpenXR方面的功能质量与广度,"极大地受益于Meta在资金和技术上的支持",这些改进不仅提升了MetaQuest用户的体验,也惠及其他XR平台。甚至在去年,一位来自Meta的工程师还发布了Godot编辑器本身在HorizonOS上的移植版本,这意味着你现在已经可以在Quest3和QuestPro上直接开发完整的VR游戏,无需连接电脑。visionOS不支持OpenXR,带来额外挑战然而,值得注意的是:AppleVisionPro并不支持OpenXR。这让为其添加支持变得比预期更加复杂--如果它支持OpenXR,很多工作本可以更轻松地完成。
下周(5月20日至21日),谷歌年度开发者大会GoogleI/O2025将正式拉开帷幕,届时这家科技巨头将展示其在人工智能、扩展现实(XR)等领域的最新成果。继近期推出AndroidXR生态系统后,谷歌在VR、AR和MR领域的布局将成为本次大会的重要焦点之一。此外,AI作为谷歌的核心技术基础,也将继续与XR深度融合,成为推动人机交互变革的关键力量。AndroidXR或成I/O大会亮点根据GoogleI/O官方页面信息,5月20日的主题演讲预计将涉及XR相关内容,尤其是围绕谷歌正在推进的AndroidXR平台及其在整个产品体系中的定位展开讨论。当天还将举行一场面向开发者的主题演讲,预计也会涵盖XR技术相关内容。除此之外,谷歌还将举办一场名为:"使用3D内容构建差异化的AndroidXR应用"的专题会议该会议将由谷歌开发者关系工程师DereckBridié与PatrickFuentes共同主持,介绍如何利用3D内容为AndroidXR应用增添独特价值。本场会议将重点介绍JetpackSceneCore与ARCoreforJetpackXR,并指导开发者如何在现有应用中融入沉浸式内容,如3D模型、立体视频以及手势追踪等功能。据官方介绍:"参与者将了解AndroidXRSDK开发者预览版中的新功能。"值得一提的是,活动页面还透露:AndroidXR的公众版本将于今年晚些时候正式发布。AndroidXR团队负责人宣布AI与XR融合进入"第二幕"此次GoogleI/O的召开正值谷歌大力推广AndroidXR的关键时期。此前,在TED2025大会上,谷歌AndroidXR项目负责人ShahramIzadi公开展示了即将推出的智能眼镜操作系统,并现场演示了一副原型智能眼镜设备。这款眼镜支持实时翻译、图像识别,并能与其他Android设备无缝连接,展现了新一代系统的创新潜力,预计将在明年正式推出。Izadi表示:"增强现实和虚拟现实已经将计算从矩形屏幕带入了360°的沉浸式空间,而现在,整个世界本身都成为了显示界面。我们将这一广泛的体验集合称为'扩展现实',即XR。"他还补充道:"迄今为止,这些创新往往是孤立发展的。现在,我们正迎来计算革命的'第二幕'--人工智能(AI)与扩展现实(XR)开始融合,这将释放出一系列以用户为中心、前所未有的交互方式。"关于AndroidXR:谷歌的下一代XR操作系统谷歌于去年底正式发布了AndroidXR,这是专为扩展现实打造的新一代操作系统。在当时的发布会上,公司强调了GeminiAI助手在提升头显设备交互体验方面的作用。基于熟悉的Android架构,AndroidXR支持大量现有的手机与平板应用,同时也兼容专为该平台设计的内容。此举旨在解决XR技术普及的一大障碍:用户需要丰富的应用与服务来支撑对XR设备的投资决策。AndroidXR操作系统旨在推动人工智能、增强现实与虚拟现实在头戴设备与智能眼镜上的未来发展。目前该系统仅向开发者开放预览版,预计未来将面向更广泛用户发布。有意参与开发的开发者可借助包括ARCore、AndroidStudio、JetpackCompose、Unity和OpenXR等熟悉工具进行项目构建。谷歌与HTCVIVE达成战略合作,加速XR布局此外,谷歌已与全球领先的XR厂商HTCVive达成一项具有决定意义的战略合作,投资2.5亿美元,以获取HTC在XR领域的专业支持。部分HTC的XR团队成员也将加入谷歌,协助其开发自有XR解决方案。有报道称,谷歌目前正在与少数用户测试AndroidXR智能眼镜原型设备,重点关注隐私保护、灵活性与用户体验等方面。与此同时,包括三星、MagicLeap、Lynx、索尼、高通、XREAL等在内的多家领先企业也正在积极参与AndroidXR平台的建设与发展。📌总结随着GoogleI/O2025的临近,外界对谷歌在AI与XR融合方面的进展充满期待。AndroidXR不仅是谷歌在XR领域迈出的关键一步,也标志着AI与扩展现实深度融合的"第二幕"正式开启。随着更多合作伙伴的加入与生态系统的逐步完善,一个全新的、以人为中心的计算时代正在悄然来临。