Google为其视频创作工具「GoogleVids」添加了多项利用AI技术的新功能,其中包括由视频生成AI模型Veo3.1驱动的高质量视频生成功能。只要有Google账号即可免费使用,用户可以通过文本提示词或照片来创建视频。什么是GoogleVids?GoogleVids是一款利用Gemini技术的协作型视频制作工具。它能根据提示词或文件自动生成可编辑的视频大纲。工具内还准备了丰富的模板和库存媒体素材,即便是没有视频制作经验的新手也能轻松上手。目前,该工具不仅包含在GoogleWorkspaceBusiness/Enterprise的所有版本中,使用GoogleAIPro和GoogleAIUltra订阅的个人用户也可以使用。本次更新的核心亮点AI虚拟替身:面向GoogleAIPro和Ultra订阅用户,Veo3.1新增了AI虚拟替身功能。用户可以更改替身的外观和服装,并将其放置在特定场景中。该功能还支持让替身与用户上传的商品或道具等物体进行直接互动。定制背景音乐:本次更新还增加了由音乐生成AI模型「Lyria3」及「Lyria3Pro」驱动的定制音乐生成功能(面向GoogleAIPro和Ultra订阅用户)。用户可以根据视频的氛围生成从30秒的短片到3分钟的完整音轨。浏览器协作与一键发布:引入了面向所有用户的浏览器协作工具。通过新推出的Chrome扩展程序「GoogleVidsScreenRecorder」,用户可以直接在网页浏览器上录制屏幕和摄像头画面。此外,还新增了将成品视频直接发布到YouTube的功能,省去了下载和重新上传的繁琐步骤。GoogleVids可以通过访问「vids.new」开始使用。
Autodesk旗下高端汽车可视化与虚拟原型工具VRED,现已通过NvidiaCloudXR技术实现对AppleVisionPro的官方沉浸式支持。多家汽车制造商已开始将其投入实际设计流程,标志着空间计算在工业级3D协作场景中的落地迈出关键一步。算力瓶颈破局:CloudXR+注视点串流实现高保真渲染VRED通常运行于配备顶级GPU的Windows/Linux工作站或云PC上,依赖数百瓦功耗的图形算力处理复杂的车身曲面、材质与光照。尽管AppleVisionPro(即便是搭载M5芯片的新机型)具备强大的移动端性能,但其本地渲染能力仍远不足以支撑VRED级别的工业级可视化需求。解决方案在于CloudXR的注视点串流技术(foveatedstreaming)。借助刚发布的visionOS26.4,VisionPro可接收来自远程工作站的实时视频流,并利用眼动追踪动态提升用户视线焦点区域的画质,同时压缩周边区域数据量--这一机制与Valve在SteamFrame中优化无线PCVR的策略如出一辙。如此一来,VRED主程序仍在高性能PC上运行,而设计师佩戴VisionPro即可低延迟、高清晰度地"走进"1:1比例的整车模型,实时查看设计变更。支持多人协同与空间标注,重塑全球设计协作流程该方案不仅支持单人沉浸体验,还实现了共位混合现实(colocatedXR):多名佩戴VisionPro的设计师可在同一物理空间中共同观察同一3D模型,并直接在空中进行3D绘图、标注与讨论。所有修改即时同步,打破地域限制。起亚全球设计执行副总裁KarimHabib表示:"通过NvidiaCloudXR将沉浸式空间计算集成到我们的工作流中,我们能在AppleVisionPro上以全尺寸、更高清晰度和更快速度评估设计方案。团队可在真实环境中共同体验比例、曲面、色彩与材质,并实现全球范围的实时协作。这让我们不断优化流程、提升效率,始终聚焦于每个设计决策背后的创意初衷。"目前,该功能已随visionOS26.4和最新版VRED正式上线,成为汽车工业向"空间化数字孪生"演进的重要基础设施。
本周,运动感知技术公司VMOCION正式推出其首款消费级产品VFORCE--一款旨在为游戏、模拟训练与空间计算提供真实运动体感的可穿戴设备。该设备通过定向刺激,让用户在虚拟环境中"感受"到转弯时的横向加速度、翻滚或俯冲时的动态变化,从而强化沉浸感并缓解常见的VR晕动症。基于医学研究的前庭刺激技术VFORCE的核心技术为伽伐尼前庭刺激(GalvanicVestibularStimulation,GVS),通过微电流作用于内耳前庭系统--人体感知平衡与运动的核心器官。当屏幕中的动作与用户实际感受到的运动信号同步时,大脑接收到的视觉与前庭信息趋于一致,有效缩小了传统VR中"眼见在动、身体静止"所导致的感官冲突,这正是"VR晕动症"的主要成因。据VMOCION介绍,其前庭技术源于与梅奥诊所(MayoClinic)长达十年的合作研究,目标是打造一种"360°全方位运动感知"的全新感官体验。公司甚至在LinkedIn上宣称,这项技术将带来"对运动体验方式的根本性变革"。跨平台兼容,瞄准游戏与专业训练场景VFORCE并不局限于VR场景。它兼容移动端、PC游戏、赛车/飞行模拟器以及未来的空间计算平台。设备内置中间件,允许开发者将运动数据直接嵌入游戏逻辑,为内容创作者提供一套标准化的"体感增强"工具链。目前,VMOCION正在多个垂直领域推进合作:赛车电竞:与模拟器厂商合作,为职业车手及电竞选手提供更真实的过弯与加速反馈;飞行培训:接入商用飞行员训练平台,将前庭反馈融入标准课程,提升情境感知能力;空间计算硬件生态:已与多家"主流头显制造商"展开洽谈,推动VFORCE成为下一代XR设备的官方配件。目前,VFORCE已开放预购候补名单,正式发售时间尚未公布。
Meta已正式确认,旗下社交平台HorizonWorlds将于2026年6月15日彻底终止对VR设备的支持。届时,该应用将从所有Quest头显中移除,用户也将无法再通过VR方式访问任何世界。早在3月31日,HorizonWorlds应用就已从Quest商店下架,包括HorizonCentral、EventsArena、Kaiju和BobberBay等核心官方世界也将同步关闭VR访问权限。不过,HorizonWorlds并未完全消失--它将继续以纯平面形式在网页端和MetaHorizon手机App中运行。Meta表示,未来将集中资源开发并扩展其移动端体验。从"VR元宇宙"到"手机社交应用"的战略转向HorizonWorlds最初于2020年以FacebookHorizon名义推出,次年更名为HorizonWorlds,曾被Meta寄予厚望,作为其VR元宇宙愿景的早期落地产品。平台的核心理念是"在VR中创作VR":用户可直接通过Touch控制器,在Quest或Rift头显内拖拽基础几何体,并借助空间化视觉脚本系统赋予交互逻辑。这一"全民创作"设想虽具理想主义色彩,却因技术限制导致内容普遍粗糙,画面质量屡遭社交媒体群嘲。尤其是一张2022年流传甚广的扎克伯格虚拟形象自拍照,至今仍被当作HorizonWorlds的代名词--尽管那早已不能代表平台后期的实际水平。为扭转局面,Meta自2023年起逐步推出桌面端创作工具,支持导入带纹理的3D模型,并使用TypeScript编写功能逻辑。到2025年,这套更接近传统游戏开发流程的工具已向全体创作者开放。然而,业界普遍认为这一转型来得太迟,平台声誉早已受损。"感知即现实":VR形象难以翻身正如政治策略家李·阿特沃特四十年前所言:"感知即现实。"无论HorizonWorlds后期如何迭代,公众对其"简陋元宇宙"的刻板印象始终难以扭转。而Meta内部也逐渐意识到,维持双端(VR+移动)开发严重拖慢产品节奏。今年1月,MetaCTO安德鲁·博斯沃思公开表示,团队在手机端已实现"非常积极的用户增长",并直言:"一个团队既要为手机开发,又要为VR重做一遍,效率太低。最简单的提速方式,就是让他们专注做手机。"到了2月,Meta正式宣布"明确将HorizonWorlds与Quest分离",从系统界面和商店中移除相关入口,并将其定位为"几乎完全聚焦移动端"的产品。值得注意的是,当时官方措辞仍有保留的余地,暗示直至一个月前,公司内部可能仍未最终决定彻底放弃VR支持。随着6月大限临近,HorizonWorlds的VR旅程即将画上句号。这究竟是及时止损,还是错失潜力?答案或许已不重要--Meta的元宇宙叙事,正悄然从头显转向口袋。
智能戒指厂商Oura近日宣布收购赫尔辛基手势识别技术公司Doublepoint,这是其继SpartaScience、Veri和Proxy之后的第四次战略并购。此次收购标志着Oura正从健康监测硬件向"环境智能"体验加速演进。Doublepoint成立于2020年,专注于基于AI的生物识别软件,能通过细微手部动作实现对设备的无接触控制。Oura认为,未来可穿戴AI的交互方式将由语音与手势共同驱动。此次整合旨在强化其长期创新路线图,推动更直观的人机交互,并加速开发以隐私优先的"静默式"AI功能。从健康数据到环境交互:打造"安静而有用"的智能体验Oura强调,Doublepoint的技术可精准识别微小手势,使跨设备操作更自然流畅。当这一能力与其自身持续生理传感和健康洞察相结合,将催生一类全新的"背景式"功能--无需主动唤醒、不打扰用户,却能在适当时机提供恰到好处的帮助。例如,系统或可根据用户手势自动暂停通知、调节环境灯光,或在检测到压力升高时启动呼吸引导。这类安静而有用的功能正是Oura所构想的下一代人本计算体验。芬兰团队成AI战略核心,强化本地研发布局本次收购涵盖Doublepoint全部四名创始人及AI架构师团队,他们将继续以赫尔辛基为主要基地,与Oura全球团队协作,主导未来AI驱动产品体验的设计与落地。OuraCEOTomHale表示:"Doublepoint团队的加入不仅增强了我们在芬兰的研发实力,也将加速我们交付跨设备、跨场景的直觉化体验。"Doublepoint联合创始人兼CEOOhtoPentikäinen指出,双方共享"打造自适应、响应式个人计算"的愿景,此次合并将让其技术触达更广泛的用户群体。截至目前,Oura估值已达约110亿美元,累计售出超550万枚智能戒指。本次交易的具体金额未予披露。
在本周于巴塞罗那举行的全球移动通信大会上,韩国XR企业NPInc.展示了一款名为MUA'H(MUAHome)的创新产品--一个集成VR头显与生理监测系统的单人"数字解压舱",旨在为高强度办公环境中的员工提供即时心理恢复方案。该设备并非简单的Quest3头显加隔音箱体。据NP介绍,MUA'H内置非接触式传感器,可实时监测包括心率变异性、心率、血压和体温在内的六项关键生理指标。这些数据将实时输入公司自研的"MIND-CAI"系统,动态生成个性化的XR冥想体验,实现从"感知压力"到"干预缓解"的闭环。企业级心理健康管理,兼顾隐私与效率除面向员工的放松功能外,MUA'H平台还为企业管理者提供群体层面的压力趋势分析。系统通过匿名化聚合数据,帮助HR或管理层识别团队整体的倦怠风险,从而提前介入、优化工作安排。NP强调,所有个体健康信息均经过脱敏处理,确保管理者无法追踪具体员工的身心状态,避免"健康监控"演变为职场监视。在MWC现场展出的原型机采用温馨设计:铺设地毯、配备软垫座椅,并配有可滑动的隐私门,营造出安全、沉浸的短暂休憩空间。NP此前已开发面向MetaQuest平台的MUA应用,此次MUA'H被视为其从消费级XR向企业健康科技场景延伸的关键一步。随着全球职场对心理健康关注度持续上升,这类融合生物传感、AI与沉浸式技术的"数字疗愈"方案,正成为XR技术落地B端市场的新突破口。
继2025年9月完成1亿美元B轮融资后,XR眼镜厂商VITURE近日宣布又成功募集新一轮1亿美元资金。本轮融资由联想旗下北京投资机构君联资本领投,战略投资者包括此前已参投的贝塔斯曼集团。据Crunchbase数据,VITURE累计融资额已达2.215亿美元。自去年9月B轮融资以来,VITURE已推出Luma系列与BeastXR眼镜--这两款产品均为需连接手机或PC使用的分体式XR设备,采用"鸟浴式"(birdbath)光学方案。2025年12月,公司还与CDProjektRED合作推出《赛博朋克2077》联名限量版Luma系列眼镜,并加速拓展北美零售渠道,目前已在百思买门店设立线下体验专区。专利攻防战:VITURE与XREAL互诉侵权值得注意的是,此次融资公布之际,正值VITURE与其竞争对手XREAL(获谷歌支持)陷入激烈法律纠纷。今年1月,XREAL在美国对VITURE提起专利诉讼,指控其ViturePro、LumaPro及LumaUltra等型号涉嫌侵犯XREAL的核心专利,并称相关产品已在美国市场销售或进口。对此,VITURE在官方声明中直指XREAL的行为属于"专利流氓式"策略,并已在中国对XREAL发起反诉,同时另案追究后者"针对VITURE及其产品所发布的虚假且具损害性的言论"。公司强调:"VITURE本无意卷入诉讼,但将毫不犹豫地捍卫自身权益,并采取一切合法手段维权。"若法院最终裁定VITURE胜诉,该公司表示或将申请禁令,禁止XREAL使用电致变色薄膜技术的产品在全球范围内的制造与出口,并寻求其他法定救济措施。
2026年2月19日,Meta通过官方博客正式公布了其在VR业务领域2026年的核心战略方向。此次声明由RealityLabs内容业务副总裁萨曼莎·莱恩(SamanthaRyan)执笔,透露出Meta对VR生态长期投入的坚定立场。数据显示,Meta目前在VR头显市场占据绝对领先地位,销量远超所有竞争对手总和。即便在2025年假日季未推出新硬件的情况下,其销售额仍与2024年持平。平台整体用户支出保持稳定,应用内购收入同比增长13%。此外,订阅服务"MetaHorizon+"用户数于2025年突破100万,游戏库内容已超过100款。双平台分治:Quest专注VR,Worlds转向移动端基于上述成果,Meta宣布将在2026年明确区分"QuestVR平台"与"Worlds移动平台"的发展路径,采取双线并行、独立运营的策略。过去两者被视为统一生态进行管理,如今的分拆意在让各业务单元更聚焦自身增长引擎。为强化VR内容生态,Meta计划将移动应用从Quest商店中移除,以提升VR专属应用的曝光度与分发效率。公司表示,此举有助于开发者更精准触达目标用户,并优化整体用户体验。在商业化支持方面,Meta已上线季节通行证、内容捆绑包等新型变现工具,并承诺在2026年继续扩充面向开发者的收益与效率提升方案。仅在2025年,Meta就向开发者生态投入约1.5亿美元。移动端发力:HorizonWorlds成新重心与此同时,Meta将"HorizonWorlds"定位为移动端元宇宙的核心载体,并将其列为2026年移动业务的首要任务。依托2025年推出的创作者基金,平台上的移动端"世界"数量已超过2,000个,其中4位创作者年收入突破100万美元。Meta还推出了专为创作者打造的"MetaHorizonStudio"与"MetaHorizonEngine",旨在提升内容生产效率与视觉表现力,进一步降低高质量互动内容的开发门槛。尽管当前VR渗透率仍处早期阶段,Meta仍引用"这场旅程只完成了1%"的说法,重申其将VR视为下一代计算平台基石的战略判断,并强调将持续进行长期投入。
GoogleAndroidXR团队近日宣布推出一套面向开发者与普通用户的全新工具,旨在通过Gemini多模态AI模型,将自然语言创意直接转化为可交互的扩展现实(XR)内容。这一能力已在Gemini网页应用中的Canvas功能中实现原型验证,并标志着Google正加速推动"沉浸式计算"的平民化。从生物模拟到彩虹画笔:AI生成XR内容落地为验证技术可行性,Google团队首先构建了一个沉浸式生物学模拟:通过Gemini建模血细胞间的动态交互,并利用WebGL与Three.js进行可视化渲染,再借助WebXRAPI将其无缝转换为XR体验。用户可在亚细胞尺度中穿行观察,亲身体验AI所构建的"完整、可交互XR场景"。基于此探索,Google开发出一套高效原型工具,使用户能以远超传统流程的速度创建3D交互模型。要使用该功能,目前需配备三星GalaxyXR头显,并接入Gemini3Pro多模态AI模型。XRBlocks:可复用的AI专家,赋予AR物理直觉核心创新在于名为"XRBlocks"的Gem(Gem是Gemini的定制化版本,相当于针对特定任务的可复用AI专家)。用户既可直接调用预置的XRBlocksGem,也可通过下载"XRBlocksultra-prompt"自行构建专属版本。据Google介绍,该提示词赋予Gemini对现实世界空间与物理规则的高级感知能力,使其生成的AR对象具备更真实的重力、碰撞与响应逻辑。操作流程极为简洁:在GalaxyXR头显的Chrome浏览器中打开Gemini,新建对话并选择对应XRGem,进入Canvas界面后即可开始语音或文字输入。更进一步,用户还可让Gemini在XR环境中嵌入GeminiLive--实现边体验、边语音对话、边实时修改,全程无需退出沉浸状态。左图:一位资深XR工程师一天内创建出的体验。右图:根据谷歌的说法,Canvas在Gemini网络应用程序中不到一分钟就创建出的体验。示例即生产力:三句话看懂未来创作方式Google提供了多个直观示例,展示自然语言如何驱动XR内容生成:"制作一支能在3D空间中画出彩虹的笔""生成一群我一碰就破的泡泡""折一只纸鸟能在房间飞几秒,然后落在我手上;当我移动手,它又飞走并重复这一过程"所有生成内容最终以可分享的网页链接形式输出,便于传播与协作。此举不仅降低了XR内容创作的技术门槛,更预示着一种"所想即所得"的下一代人机交互范式正在成型--未来,构建虚拟世界或许不再需要代码,只需清晰的想象力。谷歌表示,用户创作完成后,作品会变成可以分享的网络链接。要了解更多关于Gemini的信息并浏览XRBlocks演示示例地址:https://xrblocks.github.io/docs/samples
HTC旗下Web3内容分发平台VIVERSE今日正式推出VIVERSE创作者合作计划,一项以"真实用户互动"为核心的绩效奖励机制。该计划旨在为游戏开发者、视频创作者、Web应用构建者及数字艺术家提供一条透明、低门槛、去广告化的变现路径--不再依赖传统广告曝光量,而是根据观众的实际观看时长与互动深度直接向创作者付费。按"真实观看"结算:30秒即算有效互动根据HTC官方说明,VIVERSE将"一次有效观看"定义为用户与内容互动至少30秒。创作者的收益基于独立观看人数与总互动时长计算,一旦累计收益达到50美元门槛,即可立即获得基于观看数据的实时分成。这一模式直击当前创作者经济的核心痛点。HTCVIVERSE增长负责人AndranikAslanyan指出:"在现有在线生态中,创作者收入往往取决于广告是否被展示--而广告库存、屏蔽插件、地域限制和需求波动,常导致承诺的CPM远低于实际到账金额。VIVERSE则通过为'真实互动'付费,彻底消除这种不确定性。"创作者权益明确:内容归属不变,AI训练零使用尤为值得注意的是,VIVERSE明确承诺:不会将创作者上传的内容用于任何AI或机器学习模型的训练,且所有知识产权100%归属于原创者。这一立场在当前AI滥用内容争议频发的背景下,成为吸引高质量创作者的关键优势。此外,该计划具备多项友好设计:非独家协议:创作者可同时在其他平台发布相同内容;一键分发:支持通过URL分享或嵌入第三方网站(iframe形式),无需用户安装;全格式兼容:无论使用Unity、Unreal还是自研引擎,各类沉浸式内容均可接入;零粉丝门槛:无关注数或专属工具要求,审核通过后即可发布;数据透明:提供独立访客数、互动时长等核心指标,未来还将上线更深度分析功能。开发者实测:专注创作,基建交给平台已入驻VIVERSE的沉浸式体验《Frustrain》执行制作人GregoryMolodtsov表示:"在VIVERSE上发布让我们获得基于观看量的稳定激励,同时能跨平台快速验证创意,无需陷入技术适配泥潭。平台负责基础设施,而观众洞察帮助我们规划后续内容扩展。"目前,VIVERSEPartnerProgram已开放免费注册,创作者可访问www.viverse.com/partner即刻加入,开启基于真实互动的沉浸式内容变现之旅。
自动驾驶技术公司Waymo近日宣布推出WaymoWorldModel--一款基于生成式人工智能的大型3D仿真系统,专为训练和验证其核心自动驾驶系统"WaymoDriver"而设计。该模型不仅可复现日常交通场景,还能生成现实中极为罕见甚至从未发生过的极端情境,从暴雨洪水到野生动物闯入道路,全面提升自动驾驶系统的泛化与安全能力。基于GoogleDeepMindGenie3,实现多模态高保真仿真Waymo表示,该世界模型建立在GoogleDeepMind开发的通用世界模型Genie3基础之上。Genie3通过在海量、多样化的视频数据上进行预训练,已具备对物理世界运行规律的深层理解。Waymo在此基础上针对驾驶场景进行领域适配,输出高度逼真的多传感器数据,包括摄像头图像与激光雷达(LiDAR)点云,甚至能生成包含时间维度的4D点云,提供精确的深度与运动信息。与行业主流做法不同--即仅依赖车队实际采集的道路数据从头训练仿真模型--WaymoWorldModel借助Genie3的"世界知识",突破了真实数据的局限。这意味着系统不仅能学习已发生的驾驶经验,还能"想象"并模拟从未被记录的长尾场景:比如一头大象突然出现在城市街道,或山体滑坡阻断高速公路。三大控制机制,实现灵活、可控的虚拟测试为确保仿真的实用性与可操作性,WaymoWorldModel提供了三种核心控制方式:驾驶动作控制:仿真环境能实时响应特定的车辆控制指令,实现闭环测试;场景布局控制:用户可自定义道路结构、信号灯状态及其他交通参与者的行为逻辑;语言控制:最灵活的交互方式,仅需自然语言指令即可调整昼夜、天气,甚至生成完全合成的虚构场景(如"午夜暴雨中的施工区")。更值得注意的是,该模型还能将普通手机或行车记录仪拍摄的任意视频,自动转化为多模态仿真环境。这使得Waymo能在真实地点的数字孪生中测试其Driver系统,既保留了现实世界的细节真实性,又赋予其可控的测试条件。构建更严苛的安全基准,提前应对未知挑战Waymo强调,通过将自动驾驶系统置于这些高度复杂、动态且多样化的虚拟世界中,公司得以建立比现实路测更严格、更全面的安全验证基准。在真正遭遇极端事件前,系统已在数字空间中"经历"过成千上万次类似挑战,从而显著提升其在现实世界中的鲁棒性与可靠性。这一技术标志着自动驾驶研发正从"数据驱动"迈向"知识+生成驱动"的新阶段--不再被动等待罕见事件发生,而是主动创造、学习并征服它们。
近日,国际光学工程学会(SPIE)旗下专注于增强现实(AR)硬件研发的ARAlliance宣布新增18家成员企业。此次扩容汇聚了来自全球的顶尖技术力量,涵盖基础研究、先进光学、显示技术、直觉化交互界面及空间计算平台等关键领域,标志着AR产业链协同创新进入新阶段。构建统一生态,推动AR供应链协同发展"我们正在共同构建AR。"ARAlliance主席、意法半导体(STMicroelectronics)战略营销总监BharathRajagopalan博士表示,"ARAlliance是开展实质性工作的平台--在这里,各方协力统一技术路径,推动全球AR供应链的整合、标准化与规模化,并加速创新落地。"新加入的成员横跨材料、器件、模组到系统级解决方案,展现出AR硬件生态的高度专业化与垂直深度:光学与波导技术:AlphaLum、OORYMOptics、Solnil、CREAL(光场成像)、Augmenteum(液晶主动光学)等公司聚焦下一代近眼显示核心;微型显示与半导体:RAONTECH、NichiaAmerica、KyoceraSLDLaser提供Micro-OLED、GaN激光光源等关键发光元件;投影与光机引擎:Appotronics、TriLiteTechnologies、OQmented(MEMS激光扫描)、Gixel带来多样化轻量化显示方案;感知与交互:EyeJets专注视网膜显示与眼动追踪,TDK通过其AIsight平台提供情境感知与端侧智能;制造与测试:Goertek(AR/VR整机与组件制造商)、GIS(触控与光学模组)、TechnoTeam(光度计量图像处理)支撑量产落地;学术前沿:罗切斯特大学扩展现实中心(CXR)则为沉浸式平台与光学设计注入科研动能。Rajagopalan补充道:"我们很高兴迎来这批技术深厚、产品领先的伙伴加入ARAlliance。他们的加入将极大增强我们在推动AR市场成熟方面的集体能力。"随着苹果VisionPro、MetaRay-Ban智能眼镜等消费级产品逐步铺开,底层硬件生态的协同效率正成为行业突破的关键。ARAlliance此次大规模扩容,不仅强化了从材料到整机的全栈技术联动,也为未来统一标准、降低开发门槛、加速产品迭代奠定了坚实基础。
地理信息系统技术提供商Esri本周宣布,与瑞士摄影测量软件公司Pix4D合作推出一项全新的地面测绘工作流。该方案专为基础设施管理机构设计,旨在将地下隐蔽资产转化为可操作、高精度的数字数据。从现场扫描到AR验证:打通地下资产数字化闭环此次合作的核心在于将Pix4D旗下移动应用PIX4Dcatch采集的资产数据,直接无缝集成至Esri的ArcGIS地理空间平台。外业团队可在现场使用PIX4Dcatch配合实时动态定位设备,对管沟、管线等基础设施进行高精度扫描。所生成的数据不仅具备厘米级地理参考精度,还可一键发布至ArcGISOnline,并自动转换为3D模型与点云,以"场景图层"形式呈现。更关键的是,这些模型支持在增强现实环境中叠加显示,实现"设计图纸"与"实际施工"状态的直观比对。这一能力使工程团队能在回填前即时验证施工准确性,大幅降低返工风险,并在整个项目生命周期中保留高保真度的数字档案。
2026年2月17日起,任天堂将通过SwitchOnline+ExpansionPack会员服务正式推出《VirtualBoy经典游戏合集》。这是自1995年该主机停产后,时隔三十余年,任天堂首次以官方形式重新发布VirtualBoy的游戏内容。为体验这些原生支持立体3D效果的游戏,用户不仅需订阅高级会员服务,还需额外购买任天堂推出的两款新配件--一款是售价99.99美元(约合人民币720元)的塑料复刻版VirtualBoy头显,另一款则是定价24.99美元(约合人民币180元)的纸质模型。LaboVR能否"曲线救国"?值得注意的是,有消息称2019年推出的LaboVR--那款基于纸板DIY、早已停产的Switch外设--或许也能运行VirtualBoy游戏。一位任天堂代表曾公开表示,LaboVR在功能上与新款纸质VirtualBoy头显"效果相当"。然而,这一说法很快被公司官方"打脸"。任天堂迅速发布声明强调,LaboVR并未获得对VirtualBoy内容的官方支持,并建议用户优先选购新推出的专用设备。这种前后矛盾的说法引发了不少猜测。一方面,VirtualBoy采用的是主动式立体3D显示技术,而LaboVR原本是为Switch平面屏幕设计的简易VR方案,两者在技术原理上存在差异;另一方面,也不排除任天堂有意推动新品销售,从而淡化LaboVR的存在感。目前唯一能验证真相的方式,就是在2月17日服务上线后亲自测试。据任天堂明确说明,若无立体3D头显设备,用户将无法在Switch上运行VirtualBoy经典游戏。官方入场,终结民间模拟时代事实上,多年来玩家社区早已通过非官方手段在现代VR设备上运行VirtualBoy游戏。但此次是任天堂自1996年停售该主机以来,首次以第一方身份重新包装并发行相关产品,标志着这一"失败遗产"正式回归主流视野。
在CES2026上,"PhysicalAI"(具身AI)成为贯穿全场的核心议题。曾经局限于屏幕与服务器中的AI,如今正通过机械躯体进入人类的生活空间。这种转变不仅带来技术上的突破,也引发了对人机共处方式的深层思考。力量的威慑:Unitree人形机器人格斗演示中国初创公司Unitree展出了两台人形机器人进行对抗性格斗的演示。它们通过强化学习优化动作策略,在展台上全力出拳、踢腿。即便被击中失衡,也能迅速恢复站立--展现出令人印象深刻的动态稳定性。尽管动作偶尔因判断失误而空挥,或因惯性摔倒,但一旦命中目标,其冲击力仍透露出一种原始而粗粝的力量感。由于演示被限制在围栏内,观众尚能安心观看;但若设想这些机器人出现在身边,那种不可控的"物理存在感"难免引发一丝不安。超越人体常识的运动逻辑:BostonDynamics的AtlasBostonDynamics宣布其人形机器人Atlas即将进入量产阶段。在一段模拟工厂作业的演示中,Atlas以高度拟人化的外形登场,却展现出完全违背人类运动直觉的动作模式:关节可360度旋转,无需预摆即可瞬间启动,所有动作都沿着最短、最高效的路径完成。人类习惯通过肩部姿态、视线方向等微小线索预测他人下一步行动,从而维持安全距离。但具身AI所采用的"最优解"往往跳脱这一认知框架--效率越高,越不像人。这种"非人感"并非缺陷,却构成了人机共处时的认知摩擦。要与这类拥有超常身体能力的AI共享空间,仅靠对技术的信任远远不够,还需新的交互范式与心理调适机制。值得一提的是,演示中操作员通过VR头显远程引导Atlas完成任务后,机器人便能自主复现整套流程,显示出从示教到自主执行的闭环能力。可预测的亲和力:Sentigent的ROVARX3在众多强调性能与效率的机器人中,SentigentTechnology展出的户外陪伴机器人ROVARX3显得格外温和。它在草地上奔跑、追逐球体、被抚摸时做出愉悦反应,动作节奏与情感表达贴近宠物犬的行为逻辑。这种设计刻意保留了人类可理解的上下文线索--我们能自然推测"它可能想玩""它喜欢被摸"。对于以陪伴、看护为目标的机器人而言,这种"可预测性"反而构成了用户体验的核心价值。空间级协同:富士通的SpatialWorldModel富士通展示的"SpatialWorldModel"技术提供了一种更高维度的解决方案。不同于单个机器人仅感知局部环境,该系统试图构建包含人、机器人、物体在内的整体空间模型,并进一步推断各方"意图",预测未来状态变化。在展台演示中,通过顶部摄像头与机器人本体视觉融合,系统实时追踪区域内动态。当有人靠近禁区,机器人会通过跺脚等明显动作发出警告;同时,地面投影直观显示其当前状态与决策逻辑。未来,若结合智能眼镜等个人设备,系统或可利用用户第一视角数据扩展感知范围,并通过AR轻量提示机器人下一步动作。这种"意图书写"式的沟通,或许能弥合人与非人实体之间的认知鸿沟。CES2026清晰地表明:具身AI已从概念走向落地。然而,技术演进的速度远超社会心理与交互设计的适应能力。当机器人真正走进街道、家庭与工作场所,人如何感知、信任并与其协作,将成为比算法精度更关键的问题。XR、空间建模与行为可解释性,或将成为构建"共处体验"的新基础设施。
从"看影像"到"用AI":眼镜型设备的路线分化在2026年美国拉斯维加斯举办的CES展会上,眼镜形态的可穿戴设备呈现出明显的演进分野。过去以增强现实为核心、强调空间叠加视觉内容的AR眼镜正逐渐让位于一类新物种--"AI眼镜"。后者不再执着于构建沉浸式虚拟画面,而是聚焦于生成式AI的日常交互,将眼镜作为语音助手、实时翻译、信息提示等智能服务的轻量化入口。这一转变标志着行业重心正从"技术炫技"转向"实用嵌入",也预示着可穿戴设备正在寻找真正融入用户生活的路径。典型产品:三类AI眼镜的实用主义实践NuanceAudio:无屏听觉增强眼镜这款产品彻底摒弃了显示屏,外观与普通粗框眼镜无异,却通过波束成形(Beamforming)技术定向放大前方说话者的声音。它不叠加视觉信息,而是以技术手段自然延伸人类听觉能力,代表了一种"非视觉中心"的可穿戴思路。EvenRealitiesG1/G2:信息提示型AI眼镜搭载单色绿色微型显示屏,仅用于呈现AI生成的文字内容--如演讲提稿、通知提醒或实时翻译。设计极度低调,几乎无法与普通眼镜区分。其在日本已上市的G2版本进一步扩大可视区域,并支持与智能指环"EvenR1"联动,实现单手操作,强化了"信息辅助"而非"娱乐沉浸"的定位。LLVisionLeionHey:沟通导向的字幕眼镜专注于跨语言与无障碍交流,能将对话内容实时以字幕形式投射至镜片。不仅服务于多语种用户,也为听障人士提供沟通支持。其核心逻辑是"看见语言",而非"观看视频",凸显AI在社会性场景中的工具价值。配套生态:输入、隐私与生物信号的新解法随着AI眼镜普及,如何私密、高效地进行交互成为关键瓶颈。CES上涌现出一批旨在与眼镜协同工作的辅助设备:Wearphone:形似口罩的可穿戴麦克风,覆盖口部实现无声语音输入,解决公共场合使用AI语音助手的隐私顾虑;AIVELARingPro:多功能智能指环,通过触控与手势远程操控眼镜界面,避免频繁触摸镜腿;MudraBand:AppleWatch专用表带,利用表面神经传导(SNC)技术捕捉手指微动,实现无接触手势控制;OVOMIND:情感识别手环,通过生理信号分析用户情绪状态,未来或可驱动AI眼镜提供情境感知式响应。这些设备共同指向一个趋势:AI眼镜不会孤军奋战,而是作为"感知-交互-反馈"闭环中的视觉节点,与其他可穿戴硬件组成协同系统。路线之争:AR与AI眼镜的本质差异尽管两类设备常被混为一谈,但其底层逻辑已明显分化:AR眼镜追求空间计算与视觉沉浸,目标是"在现实世界中叠加数字体验";AI眼镜则聚焦任务效率与信息获取,目标是"让AI服务无缝介入日常生活"。值得注意的是,许多AI眼镜虽配备显示屏,但其用途仅限于简洁文字提示,拒绝复杂图形渲染。这说明分类标准不应是"有无屏幕",而应是"提供何种体验"--是视觉奇观,还是实用信息?回归"眼镜"本质:可穿戴设备的务实进化本届CES透露出一个清晰信号:行业正放弃对"未来感"的执念,转而拥抱"日常感"。与其发明全新形态的穿戴装置,不如直接复用人类已习惯百年的"眼镜"这一载体,在其上叠加恰到好处的智能功能。这种"地气十足"的演进路径,或许比炫目的全息投影更接近可穿戴设备的终极目标--不是让用户适应技术,而是让技术隐形于生活。如今,用户不再需要在"要不要用AR"之间做选择,而是可以根据自身需求,在"看影像"和"用AI"之间自由匹配。这种基于场景的自然分化,或许正是可穿戴生态走向成熟的真正标志。
VR52网成立于2015年,平台提供VR头显、AR眼镜、配件外设、厂商、测评、行业资讯、游戏与应用、展会活动等。