在近日举办的特别活动中,Google正式公布了一项名为'系统自动空间化'(SystemAutospatialization)的AI新功能。该技术可将任意2D内容--包括从PC串流的游戏、网页、视频等--实时转化为沉浸式3D体验,并计划于2026年登陆AndroidXR平台。唯一支持视频实时3D化的XR平台目前,ApplevisionOS与PICOOS等系统已支持将2D照片一键转为3D视图,但在视频和动态应用内容的实时空间化方面,AndroidXR将成为首个在头显端实现该能力的操作系统。尽管Viture等XR眼镜也具备类似功能,但Google此次将其集成于完整的XR操作系统中,且运行在高通XR2+Gen2芯片上,这意味着在承载完整系统负载的同时,芯片还需实时处理复杂的AI空间推理任务。据Google介绍,系统自动空间化将支持"几乎所有"应用程序,并可同时在多个应用中生效。演示画面展示了用户通过PC串流运行《城市:天际线》(Cities:Skylines)时,AI能智能区分前景UI界面与背景3D城市场景,仅对后者进行深度重建,从而保留操作逻辑的同时增强沉浸感。该功能预计将在2026年随AndroidXR系统更新,率先登陆三星GalaxyXR等设备。届时,用户无需开发者适配,即可在现有2D生态中获得原生级的空间体验。
在三星刚刚发布高端GalaxyXR头显、行业仍在消化其影响之际,Google宣布将于12月8日举办一场30分钟的AndroidXR专场发布会,聚焦头显、智能眼镜以及多模态AI的下一代演进。这场时机精准的活动,被广泛视为AndroidXR生态从"潜力可期"迈向"平台统一"的关键节点。更深层的问题在于:当竞争对手仍以硬件为核心时,Google能否凭借Gemini大模型构建出更具沉浸感与智能性的空间体验?从硬件展示到平台叙事:Google重掌XR话语权此前,Google仅在三星发布会上短暂露面;而此次独立直播,则标志着其主动夺回XR叙事主导权。预告片中一句"探索涵盖眼镜、头显及一切中间形态的XR全貌",已透露出战略重心的转移--不再围绕单一设备,而是推动整个空间计算范式的升级。这不仅是产品更新,更是一次平台级宣言:AndroidXR正进入"以平台为先、以AI为先、以生态为先"的新阶段。Gemini将成为XR体验的"操作系统中的操作系统"长期以来,XR交互饱受诟病:手势生硬、手柄过时、语音助手能力有限。Google试图用Gemini打破这一困局,构建一个以多模态、上下文感知AI为核心的新型空间计算模型:摄像头成为用户的"视觉记忆"物理环境叠加信息图层交互转为自然对话助手具备预判能力,而非被动响应例如,用户只需询问"我的工牌放哪儿了?",眼镜即可实时高亮指引;或在城市漫步时,自动获得翻译路牌、导航叠加等情境化信息--无需停下脚步。12月8日的演示或将首次揭示:Gemini如何内嵌于系统底层,成为驱动XR体验的"隐形引擎"。四大看点值得期待1.全形态设备深度集成Gemini预计Google将展示Gemini如何基于视觉上下文重塑生产力流程,实现真正"免手持"的对话式交互。目标是让AI成为主界面,而非附加功能。2.明确智能眼镜路线图预告画面显著突出眼镜而非头显,暗示Google正将轻量化可穿戴设备视为XR大众化的突破口。结合其与时尚眼镜品牌的长期合作,此次或正式确立"眼镜为中心"的长期战略。3.跨设备Android空间连续性空间会话可在头显、眼镜、手机间无缝流转。Android生态的核心优势在于设备协同,此次有望首次完整呈现空间计算如何融入手机、手表、平板等日常终端。4.第三方硬件与应用生态进展XREAL、三星等厂商已推出AndroidXR设备,Google或借机展示合作伙伴成果,并透露2026年硬件规划。同时,PlayStore可能迎来重大升级:地图支持沉浸模式YouTube推出空间视频专区Google相册支持3D场景回放生产力工具适配可穿戴优先场景凭借数百万现有Android应用的兼容潜力,Google在应用延续性上握有独特优势。硬件vs平台:Samsung与Google的路线之争Samsung虽率先以GalaxyXR打响硬件第一枪,但Google的平台与AI战略可能重新定义竞争规则。问题不再是"谁的设备更强",而是"谁的体验更智能、更无缝"。12月8日的发布会,或将成为AndroidXR生态真正的分水岭--空间计算的未来,将由智能、情境理解与跨端整合共同书写。而Google显然希望,自己是那个执笔人。
据泄露的内部备忘录显示,Meta已决定将原计划于2026年推出的超轻量级头显推迟至2027年上半年发布,并同步启动面向沉浸式游戏的新一代Quest4开发工作。两份由RealityLabs高管签发的内部文件近日被BusinessInsider率先披露。超轻量头显延期,聚焦打磨核心体验其中一份备忘录由RealityLabs副总裁MaherSaba发出,明确指出搭载外接计算模块("puck")并运行HorizonOS的开放式视场超轻头显项目--此前曾以Puffin、Phoenix、Loma等代号流传--将不再按原定时间表推进。新目标发布时间锁定在2027年上半年。该产品内部曾考虑命名为"QuestAir",但最终命名尚未确定。Saba在邮件中强调,此次延期旨在为团队"争取更多空间,把细节做到位"。他坦言:"当前多项产品密集上线,核心用户体验正经历重大重构,我们不会在成品打磨和可靠性上妥协。"此外,备忘录还提及一款代号为"Malibu2"的限量版可穿戴设备将于2026年推出,外界猜测或为此前传闻中的Prada联名智能眼镜。Quest4重启开发,告别补贴模式另一份备忘录由Aul与Cairns联合签署,宣布正式启动下一代主系列Quest头显(极可能命名为Quest4)的研发。与前代不同,这款设备将明确聚焦沉浸式游戏体验,并带来"显著升级"。更重要的是,Meta将不再对其进行硬件补贴。此举被视为RealityLabs向盈利转型的关键一步。就在数月前,Meta刚刚取消了原定2026年发布的Quest4与Quest4S产品线,转而优先推进超轻头显。如今路线再度调整,意味着超轻设备将于2027年上半年落地,而传统形态的Quest4则可能延后至2028年问世。值得注意的是,Meta近期已公开表示"将部分元宇宙投资转向AI眼镜与可穿戴设备"--而在公司内部,"可穿戴设备"并不包含Quest系列头显。尽管如此,硬件开发并未停摆,而是更强调商业可持续性。Saba特别提醒团队:不应借延期之机"增加新功能或承接额外任务",而应集中精力优化已有规划。考虑到Meta硬件路线图历来变动频繁--项目常在临近量产前被取消或重组--当前计划仍存在变数。唯有产品真正接近上市,才值得视为确定信号。
在苹果效力近20年的用户界面设计负责人艾伦·戴(AlanDye)正式宣布离职,并将加入MetaRealityLabs,主导其下一代产品设计。这一人事变动由彭博社记者马克·古尔曼率先披露,随后MetaCEO马克·扎克伯格在Threads平台确认,并透露公司将成立一个全新的"创意工作室"。戴于2006年加入苹果,自2015年起担任软件设计副总裁,全面负责iOS、watchOS等操作系统界面语言,以及面向开发者的整体设计规范。他深度参与了iOS7的视觉革新、iPhoneX的滑动手势交互、AirPods配对流程、CarPlay、DynamicIsland、visionOS等关键项目,并主导了AppStore、Safari、地图、TV、备忘录和FaceTime等核心应用的设计演进。与他一同加入Meta的还有两位资深设计师:曾在苹果担任其副手的比利·索伦蒂诺(BillySorrentino),以及此前已在RealityLabs负责界面设计的约书亚·陶(JoshuaTo)。Meta押注"设计即材料",欲重塑智能硬件体验扎克伯格在公告中阐述了新创意工作室的使命:"我们将融合设计、时尚与技术,定义下一代产品与体验。我们的理念是将'智能'视为一种全新的设计材料,探索当它变得丰富、强大且以人为本时,能创造出什么可能。"他进一步强调,Meta计划"提升设计在公司内部的战略地位",并集结一批兼具工艺水准、创意视野、系统思维及软硬一体产品经验的人才。"我们正进入一个新时代--AI眼镜和其他设备将彻底改变人类与技术、彼此之间的连接方式。潜力巨大,但最关键的是让这些体验自然、以人为中心。新工作室的目标,是让每一次交互都经过深思熟虑、直观易用,并真正服务于人。"值得注意的是,Meta此前在用户体验方面屡遭诟病。其Quest系列头显长期被批评界面混乱、操作繁琐;今年初虽启动界面改版,但仍处于实验阶段。此外,Meta与雷朋合作推出的智能眼镜Ray-BanDisplay也被指出完成基础任务需多次滑动与点击,交互效率低下。尽管新团队的成果短期内难以落地--预计至少需数月甚至数年才能体现在产品中--但此举被视为Meta在XR与智能眼镜赛道的关键布局。随着该技术逐步走向大众市场,Meta亟需通过设计力突破,以应对来自苹果、谷歌等巨头的激烈竞争。
2025年12月4日,Roblox在洛杉矶举办首场线下直播形式的创作者锦标赛--"RobloxCreatorShowdown"。活动于当地时间下午2点至5点30分举行,8位顶级创作者组成4支队伍同台竞技,总奖金高达5万美元(约合770万日元)。赛事采用五轮制结构,涵盖多种游戏类型:从竞技射击、障碍跑酷到体育挑战与生存对抗,充分展现Roblox平台的多元创作生态。比赛中使用的体验包括《Rivals》《TowerofHell》《BlueLock:Rivals》和《InkGame》等热门作品。最终轮采用"外卡"机制,由用户通过Roblox虚拟空间"TheBlock"投票决定对战项目,实现观众深度参与。全平台直播联动,虚拟互动增强观赛体验本次赛事通过Roblox官方YouTube、Twitch及TikTok频道同步直播,同时也在虚拟空间"TheBlock"内开放观看入口。观众不仅可实时观赛,还能参与胜者预测投票--预测最准确的用户将获得限定版虚拟头像道具。这里的"头像"即用户在Roblox世界中的数字分身。此外,活动现场还设置了专属粉丝互动区,供支持者聚集交流,进一步强化社区氛围。主办方强调,此次活动不仅是竞技比拼,更旨在打造一个展示Roblox创造力与社区活力的共享舞台。未来,Roblox计划持续与创作者社群紧密协作,拓展更具特色的竞争性体验空间,推动平台内容生态的深度演进。
据彭博社最新报道,Meta旗下负责元宇宙与下一代人机交互技术的RealityLabs部门正面临最高达30%的预算削减--这一数字远超CEO马克·扎克伯格在常规预算周期中通常要求的10%节流目标。若该计划落地,相关裁员最早将于2026年1月启动。RealityLabs:长期投入与短期盈利压力RealityLabs是Meta所有前沿硬件与平台的核心引擎,涵盖:Quest系列VR头显;Horizon社交与创作软件(如HorizonWorlds);Ray-BanMeta等智能眼镜;肌电感应(sEMG)腕带;以及CodecAvatars、全息AR眼镜等未来技术研发。自2020年第四季度起,Meta开始单独披露RealityLabs财务数据。其"巨额亏损"屡次成为媒体焦点--但需指出的是,这种"亏损"本质上是战略性长期投资。截至2022年,该部门超50%的支出用于真·AR眼镜(光学透视、轻量化、全天候佩戴)的研发,而此类产品至今尚未正式上市。然而,作为一家上市公司,Meta终需面对现实:RealityLabs必须走向可持续商业模式。从"烧钱实验室"转型为"可盈利业务单元",已成为公司内部共识。削减重点:VR与HorizonWorlds首当其冲尽管2024年7月《TheInformation》曾报道称Meta要求RealityLabs在2026年前削减20%开支,但2025年前三个季度的实际支出与2024年基本持平。如今,随着2026财年预算规划启动,高层正认真考虑高达30%的深度削减。彭博社指出,此次调整将主要针对VR硬件与HorizonWorlds平台,而智能眼镜业务则被列为增长重点。这一战略转向背后有明确市场信号支撑:智能眼镜热销:与EssilorLuxottica合作的Ray-BanMeta系列持续供不应求,成为消费级可穿戴设备中的罕见成功案例;Quest销量下滑:2025年Quest整体销量较2024年下降,仅靠年底假日季推出的Quest3S短暂提振,全年表现疲软。未来押注:AR眼镜成败决定十年投入方向Meta显然已意识到,大众市场对"面砖式"VR头显的接受度有限,而融合时尚、音频与AI助手的轻量级智能眼镜,才是通往"日常计算终端"的更可行路径。因此,公司正将资源从VR生态建设,转向以AI+摄像头+语音为核心的下一代眼镜平台。正如近期推出的WearablesDeviceAccessToolkit所展示的,Meta正积极开放眼镜硬件能力,吸引开发者构建第一人称AI应用。接下来,下一代Quest头显的市场表现将成为关键风向标。若无法扭转VR硬件颓势,Meta或将进一步收缩VR投入,全面聚焦于2027–2030年间的真·AR眼镜商业化落地。
专注于下一代AR眼镜显示模组与空间识别引擎的日本企业CellidInc.本周正式公布两款全新AR眼镜参考设计--一款采用绿色单色显示的入门级设备,以及一款支持全彩显示的高端型号。两款产品均主打轻量化、无线化设计,覆盖从企业数字化转型到日常消费级应用的广泛场景。绿色单色版:高性价比AI接入终端绿色单色型号搭载AlifE7处理器,配备500万像素摄像头与640×480分辨率的绿色VGAMicroLED显示屏,支持最新的802.11ax(Wi-Fi6)无线连接。该设备定位为入门级AR平台,适用于需要联网与边缘AI能力的工业巡检、远程协助或智能工单等场景。其核心光学元件采用Cellid最新量产的塑料光波导,在保证光学性能的同时显著降低制造成本与重量。全彩版:面向高端XR开发全彩型号则面向更高阶的AR/XR应用开发,配置更为强劲:高通AR1+GX8002双芯片方案1200万像素摄像头500×380分辨率全彩RGBMicroLED显示屏支持下一代Wi-Fi7标准该机型采用玻璃光波导,在色彩还原、对比度与图像稳定性方面表现更优,适合用于医疗可视化、高端培训、沉浸式设计等对画质要求严苛的领域。共同特性:高亮、双目、30度视场角两款设备均采用双目光学设计,提供30度视场角,并集成亮度高达3,000尼特的MicroLED微型投影系统,确保在室内弱光与户外强光环境下均具备出色的可视性与自然的视觉体验。据悉,全彩版AR眼镜预计将于2026年1月正式提供。Cellid还将在2026年1月举办的CES拉斯维加斯展会上,集中展示这两款参考设计及其他AR解决方案。
Meta近日宣布,其WearablesDeviceAccessToolkit(可穿戴设备访问工具包)现已进入公开预览阶段。该工具包允许智能手机应用调用Meta智能眼镜的摄像头,实现照片拍摄或视频流传输功能,为开发者在iOS和Android平台上构建创新体验打开新窗口。目前,开发者可下载该工具包并集成至自有App中,在个人设备上进行测试,但尚不能用于面向公众的正式发布版本。摄像头+音频:打造真正的第一人称交互在2025年Connect大会上首次公布的这一工具包,使手机App能够从Ray-BanMeta或OakleyMetaHSTN等支持型号的眼镜中触发拍照或启动720p/30fps的视频流。所获取的画面可由App本地存储或实时处理。由于Meta智能眼镜本身作为蓝牙音频设备运行,开发者还能将视觉输入与双向音频能力结合,构建更完整的多模态交互场景。典型应用场景包括:在社交或直播平台中加入第一人称视角直播功能;将摄像头画面输入第三方多模态AI模型,实现"所见即所问"的实时问答--例如识别商品、翻译路牌或解释周围环境。受限于蓝牙带宽,视频流最高仅支持720p@30fps;当连接环境拥挤时,系统会自动降低分辨率与帧率以保障稳定性。支持机型与未来扩展当前支持的设备包括Ray-BanMeta和OakleyMetaHSTN。Meta还计划在近期加入对OakleyMetaVanguard与MetaRay-BanDisplay的支持,但需注意:后两款设备仅支持摄像头画面回传,无法通过其HUD显示内容。开发者工具包文档与SDK:https://wearables.developer.meta.com早期合作案例已落地数月前,Meta已向Twitch、微软、LogitechStreamlabs和迪士尼等少数合作伙伴提供了该工具包的早期版本:Twitch与LogitechStreamlabs正利用其能力,让用户在平台上直播第一人称视角,功能类似Instagram已有的"GoLive";微软则将其集成至SeeingAI应用中,帮助视障用户通过AI理解周遭环境,提升独立出行与交互能力。随着工具包走向开放,更多结合AI、社交、辅助技术的创新用例有望加速涌现,推动智能眼镜从"音频配件"向"感知终端"演进。
由《FRENZIES》开发商nDreamsNearLight打造的混合现实(MR)街机解谜新作《OhMyGalaxy!》今日正式上线三星GalaxyXR平台,售价9.99美元。这也是该工作室为三星XR头显推出的首款原创作品。把客厅变成星际战场在《OhMyGalaxy!》中,玩家将利用手部追踪技术,把现实房间转化为一个充满奇趣的星际游乐场。游戏核心玩法简单而富有物理反馈感:通过手势"投掷"不同特性的陨石,击退入侵各星球的外星敌人,拯救濒临毁灭的行星系统。开发者表示,游戏包含超过100个难度递增的关卡,分为三大章节。每关设有不同目标,考验玩家对时机、角度与陨石特性的综合运用。例如:BoomBoulder:高爆型陨石,适合范围清敌;SplitterStone:可分裂为六块碎片的智能弹药,用于多目标打击。三星XR生态的早期独占作品《OhMyGalaxy!》是目前三星GalaxyXR平台上仅有的三款AndroidXR独占游戏之一,另两款为《Enigmo》和《Inside[JOB]》。值得注意的是,《Enigmo》仅为限时独占,后续将登陆MetaQuest平台;但本次公告未提及《OhMyGalaxy!》是否计划登陆其他设备,其未来跨平台可能性尚不明确。作为nDreams旗下NearLight团队聚焦轻量级、高互动性MR体验的又一尝试,《OhMyGalaxy!》凭借直观的手势操作与趣味十足的物理玩法,有望成为三星XR用户入门混合现实娱乐的理想选择。
由OmnifariousStudios开发的物理驱动型超级英雄模拟VR游戏《半神计划ProjectDemigod》,近日在MetaQuest与PCVR平台推出名为"DemigodsUnited"的重大更新,正式加入多人联机功能。这款自2024年2月结束抢先体验、进入正式版的作品,正通过持续的内容迭代,逐步构建一个可自由飞行、战斗与创造的VR超英沙盒世界。多人社交初登场,完整战斗即将上线本次"DemigodsUnited"更新的核心是社交多人模式,玩家现在可与好友一同进入同一座开放城市,在空中翱翔、互动或展示各自的超能力。虽然目前尚不支持合作对抗敌人,但开发团队已明确表示,"完整敌对战斗系统"将在后续更新中推出。与此同时,新版本还引入了无人机战斗内容。玩家将面对包括武装无人机、自动炮塔乃至攻击直升机在内的AI敌群,考验其飞行机动性与技能组合策略。持续进化:从巨型Boss到模组生态"DemigodsUnited"是《ProjectDemigod》正式发售后一系列高质量更新中的最新一环。此前的版本已陆续加入:巨型敌人Boss战;"Demi-Mod"模组开发套件升级,强化社区创作能力;"军械库更新"(ArmoryUpdate),新增武器与战斗机制;今年4月的"灯光、摄影、行动!"(Lights,Camera,Action)更新,则集成LIV创作者工具包,并支持自定义超能力特效颜色。这些更新不仅丰富了单人体验,也为即将到来的多人战斗奠定了技术与内容基础。目前,《ProjectDemigod》已在MetaQuest及Steam平台全面上线,支持跨平台VR游玩。随着多人功能的逐步完善,这款以"真实物理+自由超能力"为核心的VR游戏,正朝着真正的超级英雄元宇宙稳步迈进。
由VR游戏开发商Thirdverse(代表作《SoulCovenant》《X8》)打造的免费社交VR体验《HelloKittySkyland》,将于12月22日在MetaQuest平台开启抢先体验。这款以三丽鸥经典IP为核心的虚拟世界项目,早在今年9月首次公布,如今正式迈入玩家可参与阶段。虚拟"SKYLAND"初具雏形《HelloKittySkyland》设定在一个名为"SKYLAND"的幻想空岛世界,玩家将与HelloKitty、酷洛米(Kuromi)、美乐蒂(MyMelody)等经典三丽鸥角色共同探索。本次抢先体验版本包含一个中央线上大厅,以及一款名为"SkyDash"的全身动作多人竞速游戏--从官方预告片可见,其移动机制明显借鉴了《GorillaTag》的无控制器肢体驱动方式,强调物理互动与沉浸感。自定义装扮系统同步上线除了核心玩法,游戏还推出了角色换装系统,提供多套原创服饰供玩家搭配。为庆祝上线,开发团队特别加入了限时主题装扮,涵盖HelloKitty、酷洛米与美乐蒂三大人气角色。不过,这些限定服装的具体获取期限尚未公布。目前,官方未透露完整版将新增哪些功能,也未给出正式发布的时间窗口。Thirdverse仅表示:"开发团队将根据玩家反馈持续优化,并逐步添加新内容,直至推出完整版本。"值得注意的是,《HelloKittySkyland》采用免费游玩+内购模式,玩家可零门槛进入SKYLAND世界,但部分装饰或功能可能需通过应用内购买解锁。游戏将在全系MetaQuest设备上开放,尽管目前商店页面暂不可访问。
国内一家名为GravityXR的初创公司近日展示了其自研协处理器G-X100及基于该芯片打造的参考设计头显GravityXRM1。这款设备重量不到100克,成为目前全球最轻的混合现实头显,甚至比以轻薄著称的BigscreenBeyond2还要轻。核心团队:来自苹果、Meta等科技巨头GravityXR的核心团队汇聚了多位曾参与头部科技公司关键硬件项目的工程师--包括苹果VisionPro中R1协处理器的开发成员,以及来自Meta、华为和亚马逊的硬件专家。其投资方阵容同样强大,涵盖为Meta代工头显的歌尔股份、Pico母公司字节跳动,以及红杉中国、联想创投等知名机构。G-X100:专为超轻MR设备而生的协处理器G-X100是一颗专为超轻量级MR头显设计的协处理器,负责处理对延迟极度敏感的图像与视觉任务,包括摄像头透视画面渲染、空间定位、手势追踪和动态重投影等,端到端光子延迟仅9毫秒。通过将这些高负载任务从主SoC(如高通骁龙)中剥离,主芯片可被移至外置计算单元,从而大幅减轻头显本体负担。G-X100的热设计功耗(TDP)仅为3瓦,支持被动散热,彻底摆脱了当前一体机中笨重的风扇与散热片--后者通常用于冷却10–20瓦级别的芯片。GravityXRM1:接近"MR眼镜"的形态基于G-X100,GravityXR打造了参考设计头显M1。该设备采用Pancake光学模组、高清显示屏与多摄像头系统,支持全彩透视,并具备90度视场角--接近主流VR头显水平,远超Xreal、Viture等采用Birdbath方案的AR眼镜。更重要的是,作为透视系统,M1能以完全不透明的方式渲染虚拟物体,无需牺牲环境亮度,兼顾沉浸感与现实感知。其整机重量低于100克,形态已逼近日常眼镜,可被视为真正意义上的"混合现实眼镜"。行业趋势:分体式架构成轻量化关键路径需要指出的是,GravityXRM1目前仅为技术验证参考设计,尚未有厂商公开宣布采用G-X100芯片。但行业动向已显露端倪:Pico高管上周透露,公司已内部开发出类似苹果R1的专用协处理器;Meta则正与高通展开多年深度合作,同时组建自有定制芯片团队。种种迹象表明,分体式芯片架构(主SoC外置+低功耗协处理器上头)正成为下一代轻量MR设备的主流技术路径。配合开放式光学设计(虽可能牺牲部分视场角),曾经重达半公斤的"面砖"头显,或将很快被轻盈如眼镜的MR设备取代。
2025年11月27日,阿里巴巴正式推出两款全新可穿戴设备--QuarkAI眼镜S1与G1。这两款产品深度集成阿里自研大模型Qwen及其配套应用QwenApp,支持语音与触控操作,标志着Qwen正加速从技术底座向消费级硬件终端延伸。AI助手真正"随身"作为阿里巴巴消费者AI战略的核心载体,QuarkAI眼镜主打"免手持"交互体验。用户无需掏出手机,即可通过语音指令调用AI功能:实时识别商品价格、对所见图像或文字提问、在出行中进行多语种翻译,或获取近距离场景的语音导航。此外,眼镜还能自动记录会议要点、设置日程提醒,并与阿里生态内的音乐、电商等服务无缝联动。阿里巴巴集团吴嘉表示,这款产品并非概念炫技,而是"真正实用的可穿戴设备",旨在重塑AI时代人与数字世界的连接方式。旗舰S1:全天候生产力工具S1定位高端,采用轻量化设计,适合长时间佩戴。左右镜腿各嵌入一块微型OLED显示屏,搭载双芯片架构与骨传导音频系统,兼顾私密性与环境感知。配备可更换的双电池模组,续航最长可达24小时。影像能力方面,S1支持0.6秒极速抓拍、3K视频录制,并通过AI算法实现4K超分输出与夜景增强,在移动拍摄场景中表现突出。轻量G1:日常AI伴侣G1则主打轻便与性价比,整机仅重40克,除未配备显示屏外,其余核心组件(包括音频、摄像头与AI处理单元)与S1保持一致。它将AI问答、语音助手、实时翻译等核心功能浓缩于一副普通眼镜形态中,更适合日常通勤与生活场景使用。两款产品均支持标准MCP协议,允许第三方开发者基于Qwen构建专属AI应用,进一步拓展使用边界。目前,QuarkAI眼镜已在淘宝、天猫等主流电商平台开售,并同步登陆线下眼镜门店。
由NeolithicLLC开发的VR生存游戏《新石器黎明》(NeolithicDawn)将于12月11日在MetaQuest平台推出1.0正式版本。这款以新石器时代为背景的沉浸式生存体验,自今年早些时候进入Quest抢先体验阶段后,现已完成核心内容打磨,即将正式推出。《新石器黎明》将玩家带回公元前10000年的北美大陆,扮演一名原始部落成员,在严酷自然环境中求生并尝试构建初代文明。玩家需管理饥饿、口渴、体力与体温等基本生理需求,同时采集资源、制作工具--包括长矛、石斧与弓箭,并与熊、狼等史前猛兽周旋。这些动物既可被猎杀,也可通过特定机制"驯服"或规避。死亡并非终点。每次角色死亡后,玩家将以其后代身份重生,此前建造的营地、解锁的工艺与部分进度将得以保留,形成一种独特的"文明传承"机制。探索、攀爬与冰穴叙事除了狩猎与建造,游戏强调垂直探索与环境互动。玩家需攀爬悬崖、穿越植被茂密的地图,在动态生成的开放世界中寻找生存资源。正式版还将包含一段深度剧情引导任务:玩家需扮演先祖,在冰封洞穴中保护一名婴儿(即未来角色的幼年形态),通过紧张的场景推进理解世界观与生存逻辑。开发团队承诺,1.0版本将带来多项生活质量优化,包括全面重做的菜单界面、操作流畅度提升及系统稳定性增强。抢先体验获好评:粗糙但迷人在今年7月的抢先体验评测中,该作因其独特的历史设定与物理驱动的VR交互获得关注:"如果你热爱生存类游戏,享受基于物理反馈的VR操作,并能容忍少量技术瑕疵,《新石器黎明》提供了一次既惊险又壮美的远古穿越之旅。"目前,《新石器黎明》已在MetaQuest与Steam平台开放抢先体验,Quest版1.0将于12月11日正式上线,而PCVR全平台正式版的发布日期尚未公布。
全球自主系统与国防科技解决方案提供商AeroVironment公司(简称AV)近日宣布,对其统一任务软件平台AV_Halo进行功能扩展,正式推出AV_HaloMENTOR与AV_HaloCORTEX两大新模块。AV_Halo最初于2023年9月发布,定位为一个硬件无关的开放式平台,旨在将指挥控制、AI辅助情报、合成训练与自主瞄准等能力整合进统一的开放标准生态中。此次新增的两个组件,标志着该平台向"全域作战支持"迈出关键一步。沉浸式单兵武器训练:AV_HaloMENTORAV_HaloMENTOR是一套面向作战人员战备训练的沉浸式解决方案,提供基于VR与AR的武器操作训练和任务预演功能。其核心组件"虚拟系统训练器"(VirtualSystemsTrainer,VST)可基于真实地理数据生成360度虚拟环境,支持操作员在模拟场景中训练使用"毒刺"(Stinger)、"标枪"(Javelin)和"针式"(Igla)等便携式防空或反装甲武器系统。MENTOR既支持单人训练,也支持小队协同演练。教官可自定义训练场景、复盘复杂交战流程,并进行行动后评估。系统提供固定部署与便携式快速部署两种形态,适用于前线基地、训练中心乃至野外临时场地等多种环境。多源情报融合中枢:AV_HaloCORTEXAV_HaloCORTEX则聚焦情报融合与分析,基于AeroVironment旗下Scraawl技术构建。该系统整合开源情报、多源异构数据、自主分析引擎与实时信息流,生成全面的战场态势图景。CORTEX可处理全球数百万条数据点,涵盖新闻、社交媒体、图像、视频及各类传感器信号,并内置专有的地理定位引擎--即使缺乏元数据,也能实现高精度定位。此外,平台引入基于GPT技术的"洞察代理"(InsightAgents),支持通过自然语言对话查询情报,并具备对持续性无人机威胁的侦测能力。
随着FPV(第一人称视角)无人机在现代战场中的战术地位迅速上升,军事训练方式也正加速向虚拟化演进。近日,专注于国防与公共安全XR训练解决方案的公司InVeris正式发布fatsDrone--一款专为小型无人航空系统(sUAS)操作设计的高保真模拟训练平台。覆盖全链条无人机作战场景fatsDrone支持单兵或多人联网协同训练,可在高度仿真的虚拟战场环境中演练多种关键任务,包括:空中侦察与情报、监视、侦察(ISR);徘徊式/一次性攻击无人机操作;投掷弹药与物资补给;反无人机战术应对;电池续航与能源管理意识训练。该系统基于BohemiaInteractiveSimulations开发的VBS4军用仿真平台构建,仅限于集体训练空间使用,确保战术协同与指挥链路的真实性。支持FPV头显,大幅降低训练成本用户既可通过标准显示器操作,也可接入模拟FPV无人机眼镜的头显设备,以沉浸式第一视角练习飞行操控与战术决策。这一设计显著降低了实装训练的门槛。据InVeris屏显武器系统产品经理MichaelBrazell指出:"新手在学习飞行时通常至少会撞毁一架无人机,而每架平均成本达1,000至2,000美元。若要为1万名士兵提供实机训练,总成本可能高达数百万美元,并消耗本就紧张的装备供应链。而模拟训练完全规避了这些重复性支出--即便'坠机',也无需承担任何财务或后勤负担。"
VR52网成立于2015年,平台提供VR头显、AR眼镜、配件外设、厂商、测评、行业资讯、游戏与应用、展会活动等。