在沉寂六年之后,运动相机巨头GoPro终于推出其360°全景相机升级款--GoProMax2。这款新品于9月30日正式上市,售价500美元,直接瞄准了来自Insta360X5(550美元)和DJIOsmo360(550美元)的激烈竞争,试图夺回在消费级360相机市场的领先地位。"真8K"vs"伪8K":GoPro的技术宣言六年前发布的初代GoProMax仅支持5.6K30fps录制,早已被Insta360和DJI的新品全面超越。此次Max2的最大亮点,是其宣称的"真8K"录制能力(8K30fps)。GoPro强调,当竞争对手宣传"8K"时,往往包含了双镜头之间重叠或无法使用的像素区域,而Max2则提供无裁剪、无虚标的"真实8K"分辨率,有效像素比竞品多出约20%。"Max2是市面上唯一一款真正实现8K360°视频捕捉的相机。"--GoPro官方声明此外,Max2在开启高级模式后,支持高达300Mbps的比特率,几乎是Insta360和DJI机型的两倍,意味着更丰富的画面细节和更少的压缩损失。核心配置与功能对比GoProMax2大疆Osmo360Insta360X5360°视频8K30帧/秒5.6K60帧/秒4K100帧/秒8K50帧/秒6K60帧/秒4K100帧/秒8K30帧/秒5.7K60帧/秒4K120帧/秒比特率300Mbps170Mbps180Mbps10位HDR✅✅❌360°照片2900万像素1.2亿像素7200万像素传感器尺寸1/2.3英寸1/1.1英寸1/1.28英寸光圈F1.8F1.9F2.0可更换镜片✅❌✅电池续航66分钟110分钟88分钟优势与妥协并存✅优势:价格优势:比两大对手便宜50美元。真实分辨率与高码率:追求极致画质的专业用户可能更青睐GoPro的数据诚意。可更换镜头:与X5看齐,损坏后无需返厂维修,用户可自行更换。⚠️妥协与短板:缺少8K50fps:DJIOsmo360已支持更高帧率,更适合流畅慢动作。传感器较小:尽管光圈为f/2.0(略大于竞品),但小尺寸传感器意味着弱光环境下表现可能落后。续航较短:8K录制仅约65分钟,比对手少20-25分钟。未来展望:8K60fps将是下一战场目前三款消费级360相机均未支持8K60fps--这是当前专业影视制作的标准。不过,行业预计这一规格将在2026年的新机型中实现,届时新一轮技术竞赛将再度拉开。
翻车之后,CTO亲自拆解故障根源在2025年MetaConnect大会的主舞台上,两场关键智能眼镜功能的现场演示接连失败,让马克·扎克伯格罕见地陷入尴尬。当时他将问题归因于"会场Wi-Fi太差",但事后,Meta首席技术官安德鲁·博斯沃思(AndrewBosworth)在Instagram的AMA问答中,给出了更真实、也更技术性的解释。这不是简单的网络问题,而是两个独立系统缺陷,在高压环境下被意外触发的结果。LiveAI为何陷入"已混合原料"死循环?第一场故障出现在"LiveAI"功能的演示中。该功能允许用户与MetaAI进行持续对话,无需反复唤醒"HeyMeta",AI还能实时感知视野内容。现场,厨师JackMancuso在Meta园区厨房启动功能后,AI准确识别了酱油等食材。但当他询问如何制作韩式牛排酱时,AI却不断重复:"你已经混合了基础原料。"博斯沃思解释,真正原因是:声音广播引发全楼设备误触发。Mancuso说"HeyMeta,startLiveAI"时,声音通过会场扬声器播放;导致建筑内所有Ray-BanMeta眼镜同时启动LiveAI;为保障演示稳定,Meta将园区LiveAI流量集中导流至一台开发服务器;成百上千并发请求瞬间压垮服务器,导致响应异常。至于为何AI反复声称"已混合原料",博斯沃思未作说明。合理推测是:服务器崩溃后返回了缓存中的排练数据;另一种可能是,Meta在演示中预设了部分流程,系统故障后暴露了"半真半假"的底层逻辑。更值得警惕的是:MetaAI至今不支持声纹识别。而Siri、Alexa、GoogleAssistant早已实现语音身份认证,防止误操作或隐私泄露。视频通话失败:一个"休眠"引发的系统死锁第二场故障发生在扎克伯格亲自演示MetaRay-BanDisplay眼镜接听WhatsApp视频来电时。理论上,他应能语音或手势接通,画面直接显示在镜片上。多家媒体(如TheVerge)实测确认功能可用,但现场却连续四次失败。博斯沃思透露,根本原因是一个极小概率的"竞态条件"(racecondition):来电通知到达的瞬间,眼镜显示屏恰好进入休眠状态;系统未能正确处理通知与唤醒的时序冲突,导致来电被阻塞;更严重的是,该错误使系统进入异常状态,后续所有呼叫均无法接入。他坦言:"这种bug出现在这种场合,真是糟糕透顶。"尽管团队已测试上百次,此前从未复现。如今漏洞已被修复。正常视频通话时为什么坚持高风险的"真演示"?尽管翻车,博斯沃思仍为"真实演示"辩护。他在AMA中表示:"我不明白人们觉得风险在哪……去看看媒体评测吧,如果产品不好用,他们根本不会写好评。他们试了,也说了:这东西是真的,能用。观众都懂--没人日常处在2500个无线设备同时干扰的环境里。"这代表了一种与苹果"精心编排式发布"截然不同的产品哲学:宁可暴露瑕疵,也要展示真实能力。业内反应两极:有人嘲讽,也有人认为这种"不完美"反而增强了可信度--毕竟,预发布阶段的演示本就充满不确定性。用户可亲自验证,产品才是最终裁判从9月30日起,MetaRay-BanDisplay眼镜已在BestBuy、LensCrafters和Ray-Ban门店开放体验。这意味着,消费者不再需要依赖发布会表现,而是可以亲自验证功能是否流畅。演示可以翻车,但产品必须经得起真实世界的考验。对Meta而言,真正的挑战,才刚刚开始。
Meta正在彻底重塑其VR内容创作生态。其桌面端创作工具HorizonWorldsDesktopEditor将正式更名为MetaHorizonStudio,并迎来一项革命性升级:一个全新进化的AI助手,将能够从零生成世界、资产与玩法机制,把VR世界的创建时间从数小时压缩至几分钟。从"编辑器"到"生成器":HorizonStudio的AI进化自今年2月以"HorizonWorldsDesktopEditor"之名进入早期测试以来,这款Windows平台的平面创作工具便肩负着接替旧版VR内建创作工具的使命。它支持导入3D模型、图像、音频,并允许开发者使用TypeScript编写交互逻辑,构建出可在HorizonWorlds中实时多人游玩的虚拟空间。在过去一年中,Meta持续为该编辑器注入AI生产力,现已支持在美国、英国、加拿大、欧盟、澳大利亚、新西兰等地区AI生成:3D网格(meshes)材质纹理(textures)天空盒(skyboxes)音效与环境音(soundeffects,ambientaudio)TypeScript代码整体岛屿/地形(islands)创作者助手(CreatorAssistant)的局限与突破去年,Meta推出了CreatorAssistant--一个能执行开发任务的AI代理。例如,你只需说:"做一个按钮按下后门就打开的机关",它就能:从资源库中找到门和按钮;将其放置在场景中;设置属性;编写并绑定TypeScript代码。但有一个关键限制:它无法生成新资产,只能调用现有资源库中的内容。这一瓶颈将在新版HorizonStudio的升级版AI助手中被打破。全新AI助手:从"拼装"到"创造"Meta宣布,升级后的AI助手将具备端到端的生成能力,能够:AI生成整个VR世界:根据一句话描述(如"一个赛博朋克风格的未来城市,夜晚下雨,有霓虹灯和飞行汽车"),自动生成完整场景;按需生成特定资产:如"一只会发光的机械狐狸"或"一座中世纪石桥";实现指定玩法机制:如"设计一个解谜游戏,玩家需按顺序踩踏地板上的符文才能开门";创建自定义NPC:不再是基于标准MetaAvatar的简单角色,而是完全由AI生成外观与行为的非玩家角色。更进一步,这些NPC将支持:自然语言对话(与用户语音交互);世界背景理解(创作者可设定其知识库);动态事件感知(能感知当前游戏状态,如"宝藏已被取走")。这意味着,你未来可能只需说:"帮我做一个奇幻冒险世界,有会说话的龙和隐藏宝藏",AI就能为你生成一个可玩、可交互、可多人进入的完整VR体验。新引擎加持:HorizonEngine带来性能飞跃所有在HorizonStudio中创建的世界,将运行于全新的HorizonEngine,取代此前基于Unity的运行时系统。Meta表示,新引擎带来显著提升:加载速度提升4倍;单实例支持超过100名用户同时在线;更高效的资源管理与网络同步。这为大规模社交活动、虚拟演出和复杂游戏逻辑提供了坚实基础。尚无发布时间,但潜力无限目前,Meta尚未公布HorizonStudio及其增强AI助手的具体上线时间。但如果最终实现效果如其所述,这将彻底降低VR内容创作的门槛。过去需要数小时建模、编程、调试的工作,未来可能只需几分钟的自然语言指令即可完成。独立创作者、教育者、小型团队将获得前所未有的生产力工具,真正实现"人人都是元宇宙建筑师"。结语:AI正在重新定义"创作"从Photoshop的GenerativeFill到Unity的Sentis,AI正在渗透内容创作的每一个环节。而MetaHorizonStudio的升级,标志着AI驱动的VR世界生成已从概念走向现实。当"想象"与"实现"之间的距离被压缩到几分钟,元宇宙的爆发式增长,或许只差一个"生成"按钮。
在今日的MetaConnect2025开发者主题演讲中,Meta负责元宇宙内容的副总裁SamanthaRyan宣布了一项备受期待的消息:全球最受欢迎的社群与语音通信平台Discord将于2026年正式登陆MetaQuest的HorizonOS,并以"原生应用"(nativeapp)的形式推出。原生应用意味着什么?Ryan特别强调了"nativeapp"这一表述,这与当前部分应用以网页容器(webappcontainer)运行的方式形成鲜明对比。这意味着:Discord将获得更深层次的系统集成;运行更流畅,启动更快,资源调度更高效;更重要的是,它将能够调用HorizonOS的专属功能,实现更沉浸的VR通信体验。作为对比,Spotify目前在Quest上仍以网页版形式运行,功能和体验受限;而Zoom、WhatsApp、Messenger和Instagram则已作为原生应用存在。Discord的加入,使其成为第五个登陆Quest的主流通信平台。可期待的功能:第一人称视角+Meta虚拟形象自去年以来,HorizonOS已陆续为通信应用引入两项关键功能,Discord作为原生应用,极有可能全面支持:第一人称视角共享(First-PersonViewSharing)类似于手机的后置摄像头,用户可直接通过Quest头显的前置传感器,向Discord语音频道或私聊分享自己的真实世界视角。无论是展示游戏玩法、指导操作,还是"带朋友看"VR体验,都更加直观。以Meta虚拟形象出镜(MetaAvatarasSelfieCamera)用户无需开启摄像头,即可将自己的MetaAvatar作为虚拟形象出现在语音或视频通话中。在Discord的服务器语音频道或DirectMessage视频聊天中,你将能以完全虚拟的形态与朋友互动,保护隐私的同时增强沉浸感。未来,Discord甚至可能支持VR内嵌语音频道快捷加入、跨游戏状态同步(如"正在玩《Population:ONE》")等深度整合功能。对开发者与玩家的意义Discord在游戏玩家和VR社群中拥有近乎"基础设施"级别的地位。其原生登陆Quest,将极大简化VR用户的社交协作流程:玩家可直接从头显内加入服务器语音,无需再依赖手机或电脑;社群组织者能更高效地管理VR活动、赛事或虚拟聚会;开发者可通过Discord更紧密地连接用户,推动社区生态成长。结语:通信闭环再下一城从WhatsApp、Messenger到Zoom和Instagram,再到即将加入的Discord,Meta正在构建一个全方位、多场景的跨平台通信生态。Discord的原生入驻,不仅是对用户需求的回应,更是Meta推动"VR作为主要社交界面"战略的关键一步。当你可以戴着Quest,在虚拟酒吧里用Avatar和朋友开黑,同时通过Discord语音指挥团队拿下胜利--那一刻,元宇宙的"真实感"又近了一步。时间线预测:2026年初:Discord原生应用上线Quest商店(预计支持Quest2/3/3S)后续更新:或支持HorizonHome快捷入口、通知集成、Avatar跨平台同步等
距离MetaConnect2025正式开幕仅剩数小时,扎克伯格即将登台,揭晓这家全球XR领域最具影响力公司下一阶段的战略蓝图。作为年度科技盛会,这场发布会不仅关乎虚拟现实的演进,更可能重新定义人机交互的边界。今年的keynote时间安排略显特殊--将于太平洋时间下午5点(美东时间晚上8点)举行。届时,扎克伯格将亲自介绍Meta在混合现实(MR)、人工智能(AI)、元宇宙生态以及可穿戴设备领域的最新进展。这些关键词早已不再是概念堆砌,而是逐步走向产品化与用户落地的关键节点。智能眼镜矩阵或将亮相?来自合作方的"意外泄露"值得注意的是,本次发布会的一大潜在焦点或许是智能眼镜产品线的全面升级。就在昨日,Meta与光学巨头依视路·陆逊梯卡(EssilorLuxottica)的合作项目疑似提前曝光,一款搭载单目光学显示模组的新一代智能眼镜浮出水面。这一细节暗示,Meta或正试图在轻量化、日常佩戴场景中实现"视觉增强"的突破。若消息属实,这将是继Ray-BanMeta智能眼镜之后,双方合作的又一次深化。不同于主打音频与拍摄功能的初代产品,配备单目显示屏的型号意味着真正的"信息叠加"体验正在逼近消费级市场--尽管可能仍处于早期探索阶段。HorizonOS开放生态的后续回响回顾上一届Connect大会,Meta抛出了一个极具战略意义的决定:首次向第三方厂商开放HorizonOS操作系统,并推动联想、华硕等品牌推出基于该系统的Quest风格头显。此举标志着Meta从"硬件主导"转向"平台赋能"的关键一步。然而,这一开放策略的实际落地效果如何?开发者生态是否已形成良性循环?跨品牌设备的用户体验一致性又能否保障?这些问题至今仍未完全解答。因此,本届大会极有可能进一步披露HorizonOS的生态进展、技术标准更新,乃至对第三方合作伙伴的支持机制。游戏、社交与VR世界的持续构建当然,内容生态仍是维系用户留存的核心。我们有理由期待更多关于Quest平台新游戏、沉浸式体验的发布,以及其社交虚拟空间HorizonWorlds的功能迭代。无论是更具互动性的虚拟化身系统,还是更丰富的创作工具,都将直接影响普通用户对"元宇宙"概念的真实感知。尽管外界对"元宇宙"的热度有所降温,但Meta仍在持续投入。每一次Connect大会都像是一次阶段性答卷--不急于兑现全部承诺,却始终在推进技术与产品的渐进式演进。可以肯定的是,无论最终发布什么,MetaConnect从来不只是关于硬件参数的堆叠,而是一场关于未来计算平台的叙事延续。我们也将持续跟进发布会动态,第一时间带来深度解读与现场观察。
全息技术公司LookingGlass正式推出其革命性新品--HololuminescentDisplay(HLD,全息荧光显示),一种全新的显示类别,旨在将标准2D视频内容转化为逼真的3D全息影像,无需佩戴任何辅助设备。这项技术的发布,标志着裸眼3D显示从实验室走向商业落地的关键一步。与传统依赖视差屏障或旋转镜面的方案不同,HLD的核心目标是:让现有数字内容生态无缝接入立体视觉时代。不用3D软件,也能"长"出深度:HLD的颠覆性逻辑当前,广告主、品牌方和零售商在打造沉浸式线下体验时,常面临三大瓶颈:3D内容制作复杂,依赖专业建模与渲染管线VR/AR设备体验封闭,难以群体共享大型全息装置体积庞大,部署成本高LookingGlass的HLD直击这些痛点。其最大亮点在于:无需专用3D软件,标准视频即可呈现真实空间深度。这意味着,使用AdobePremiere、AfterEffects、Unity、UnrealEngine等常规工具制作的内容,经过简单适配后,就能在HLD上以立体形态呈现。品牌无需重建内容体系,即可实现视觉升级。技术揭秘:一块不到一英寸厚的"魔法玻璃"HLD的核心技术基于LookingGlass专利的混合光学架构:将全息体积层嵌入LCD或OLED面板的光学堆栈中,实现光场(LightField)重构。这种设计让显示设备厚度不足一英寸,支持最高4K分辨率,并可适配标准显示设备的外形尺寸,便于直接替换现有数字标牌。更关键的是,HLD无需眼动追踪、无需佩戴眼镜、不限观看角度与人数。无论是单人驻足,还是群体围观,所有观众都能同时看到具有真实纵深感的立体影像。商业场景:广告、零售与现场活动的视觉升维LookingGlassCEOShawnFrayne表示:"我们致力于让魔法般的全息影像无处不在。HLD专为广告、零售和现场环境设计,能瞬间抓住注意力。它建立在我们的光场技术之上,却能与标准视频、内容管理系统(CMS)和现有广告基础设施无缝协作。"想象以下场景:商场中,模特从屏幕中"跨步而出",展示新款服装;博物馆内,恐龙骨架在空中缓缓旋转,细节清晰可见;品牌发布会,产品悬浮于空中,360°无死角呈现。这些过去依赖复杂投影或AR头显的体验,如今只需一块HLD屏幕即可实现。值得一提的是,LookingGlass仍将继续提供其原有的光场显示器,面向需要深度交互、3D研发或工程评审的专业团队。HLD则聚焦于大众化、规模化商业部署,形成高低搭配的产品矩阵。上市信息:2025年Q4发售,16英寸起售$2000HLD将于2025年第四季度正式上市,首发型号为16英寸,起售价2000美元。后续还将推出27英寸与86英寸大屏版本,满足从橱窗展示到大型展厅的多样化需求。目前,公司已开放限时预购折扣,吸引早期采用者。
Snapchat母公司Snap正式推出SnapOS2.0,为其AR眼镜平台注入新活力。此次更新聚焦于优化第一方应用体验,包括浏览器、图库(Gallery)和Spotlight视频流功能,标志着该系统正从"开发者专用"向"消费者就绪"稳步迈进。如果你还不熟悉背景:当前的SnapSpectacles是专为开发者设计的AR眼镜,月租99美元(学生50美元),目标是让开发者提前构建应用生态,为Snap计划在2026年推出的消费级产品"Specs"打下基础。尽管硬件本身尚处原型阶段--46°对角视场角、接近AppleVisionPro的角分辨率、仅45分钟续航、重达226克(约是Ray-BanMeta眼镜的五倍)--但SnapCEOEvanSpiegel明确表示,未来的消费版将实现"更小的体积、更轻的重量、更强的功能",并兼容现有所有应用。因此,真正值得长期关注的,并非当前笨重的开发设备,而是其背后的操作系统:SnapOS。SnapOS:封闭中的高效生态SnapOS的架构在当前AR平台中独树一帜。虽然底层基于Android,但它不允许安装APK,开发者无法运行原生代码,也不能使用Unity等第三方引擎。取而代之的是名为"Lenses"(镜头)的沙盒化应用,全部通过Snap提供的LensStudio(支持Windows和macOS)进行开发。开发者使用JavaScript或TypeScript调用高层API,而系统则负责底层渲染与交互逻辑。这种设计思路与AppleVisionPro的visionOS"共享空间"有异曲同工之妙:应用启动近乎瞬时交互体验高度一致多用户共享场景轻松实现手机端Snap应用可作为"观众视角"实时观看Lens内容目前系统尚不支持多任务处理,但这更可能是当前硬件性能限制所致,而非系统设计缺陷。自去年SnapOS随最新版Spectacles发布以来,Snap持续为开发者扩展能力边界:2025年3月:新增GPS与指南针支持,可用于户外导航;检测用户是否手持手机;引入系统级浮动键盘,解决文本输入难题。2025年6月:集成AI功能套件,包括支持40多种语言的语音转文字、实时生成3D模型,并深度对接GoogleGemini与OpenAIChatGPT的多模态视觉能力。特别值得一提的是深度缓存(depthcaching)功能,允许开发者将AI返回的信息精准锚定在现实空间中,实现真正的"空间智能"。SnapOS2.0:从开发者工具到用户体验升级如果说此前的更新主要服务于开发者,那么SnapOS2.0则明显转向提升终端用户体验,为明年消费级产品发布预热。新增TravelMode:移动场景下的空间追踪SnapOS2.0引入TravelMode(旅行模式),使设备在飞机、火车甚至汽车等移动载具中也能保持稳定的空间定位。这一功能此前由AppleVisionPro率先实现,Meta与pico随后跟进。Snap的加入,意味着其空间算法已具备应对复杂动态环境的能力。全新浏览器:支持WebXR,打开跨平台大门Snap的浏览器经历全面重构,号称"更快、更强、更易用"。新功能包括:可自定义窗口宽高比支持小组件与书签关键升级:支持WebXR这意味着大量基于Web的AR体验可直接在Spectacles上运行。尽管受限于设备算力,目前仅适合轻量级AR应用,尚无法承载复杂沉浸式游戏,但已为内容生态扩展打开重要通道。Gallery图库与Spotlight视频:补齐内容闭环新推出的Gallery镜头允许用户查看通过Spectacles录制的内容,并直接分享至Snapchat。不过目前仍有限制:仅支持在Lens内录制的30秒片段不支持独立拍照或自由录像更令人意外的是,Gallery不会同步手机端的Snapchat图片与视频。对此Snap回应称:"这是个有趣的想法",暗示未来或有整合可能。另一个重要更新是引入Spotlight--Snapchat手机端的短视频功能(对标TikTok与InstagramReels)。由于当前Spectacles的视场角垂直高于水平,非常适合观看竖屏视频,成为其差异化优势之一。SynthRiders登陆:验证平台娱乐潜力除系统更新外,Snap宣布热门XR节奏游戏《SynthRiders》即将登陆其平台。作者在伦敦体验了该版本,虽不及Quest、PCVR或VisionPro上的完整体验,但已展现出开发者对Snap工具链的逐步掌握。值得一提的是,演示中虚拟物体能将光影投射到现实家具表面--这得益于SnapOS提供的连续场景网格(continuousscenemesh),让虚拟内容能自然融入真实环境,提升沉浸感。结语:系统先行,硬件待发SnapOS2.0的发布,清晰传递了一个信号:Snap并不急于让消费者立刻戴上AR眼镜,而是先确保当那一刻到来时,系统已准备好足够丰富的体验与生态。它选择了一条与Apple、Meta不同的路径:不依赖通用引擎,不开放原生开发,而是通过高度控制的Lenses生态,追求极致的启动速度、交互一致性与跨用户共享体验。这条路能否成功尚待观察,但在通往消费级AR的长跑中,Snap已经用操作系统,悄悄抢下了关键一棒。
2025年9月17日至18日,Meta年度开发者大会Connect即将拉开帷幕。这场被科技圈视为"元宇宙风向标"的盛会,今年却显得格外神秘--官方预告语焉不详,仅由扎克伯格亲自出面承诺:"分享AI眼镜最新进展,并阐述Meta在人工智能与元宇宙领域的愿景。"与此同时,CTO安德鲁·博斯沃思(AndrewBosworth)也在上月放出风声:将有"重磅可穿戴设备"发布,同时涉及AI与"元宇宙软件"的重大更新。但除此之外,Meta几乎守口如瓶。没有预热海报,没有倒计时页面,甚至连Keynote议程都极为克制。然而,从彭博社、TheVerge、金融时报等多家权威媒体的报道,结合Meta近年来的战略轨迹来看,我们仍能拼凑出一幅清晰的图景。真正的答案,或许就在周三晚上的直播中揭晓。智能眼镜正式登场:Hypernova与Celeste毫无疑问,本届Connect的最大焦点,将是Meta首款搭载微型抬头显示(HUD)的智能眼镜。据多方信源证实,这款代号为Hypernova的眼镜将在右眼嵌入一块小型单目光学显示单元,支持时间、天气、通知提醒、实时导航、语音字幕与翻译等功能。更重要的是,它将首次集成Meta长期研发的sEMG神经肌电腕带,通过手指微动作实现无接触操控。MetaHUD眼镜在泄露的早期固件中呈现。这并非传统意义上的AR眼镜--它不会叠加三维虚拟物体,也不会构建空间地图。它的定位更接近"AI助手的视觉延伸",将MetaAI的响应以文本形式直接呈现在视野中,取代语音播报。有趣的是,这款产品的真实命名可能早已泄露。7月,有人在Meta公开服务器的固件中发现了Hypernova及其腕带的渲染图,其中一处刻字清晰可见:"MetaCeleste"。这一命名极有可能成为最终上市名称。重量方面,由于增加了光学模组,Celeste整机重约70克,相较目前主流的Ray-BanMeta眼镜(50克)有所增加。价格也大幅提升:最初传闻定价超1000美元,但最新消息称已下调至800美元起。这意味着,Celeste并非面向大众消费市场的普及型产品,而是Meta在高端AI可穿戴领域的一次战略卡位。多品牌协同:OakleySphaera与Ray-Ban迭代猜想除了旗舰级AI眼镜,Meta在时尚与运动领域的布局也在加速。今年早些时候,Meta与依视路陆逊梯卡(EssilorLuxottica)联合推出了OakleyMetaHSTN,本质上是Ray-BanMeta的高配版:更高清的摄像头、更长续航,目标用户为户外运动爱好者。而据彭博社MarkGurman透露,双方还有一款基于Oakley经典Sphaera设计的新品正在路上。这款眼镜最大的变化在于--摄像头位于镜框中央。OakleySphaera眼镜的非智能型号。这一设计显然更利于第一人称视角拍摄,尤其适合骑行、滑雪等极限运动场景。其市场定位也将更加垂直,主打"运动员与冒险者"。至于消费者更熟悉的Ray-BanMeta系列,是否会迎来第二代升级?目前信息存在分歧。《TheInformation》报道称,下一代产品代号为Aperol和Bellini,计划2026年发布,将支持人脸识别与持续数小时的AI会话。但中国XR研究机构在7月发布的渲染图显示,新版本或已在内部测试,且分为光学镜片与太阳镜两种型号。考虑到HSTN刚推出不久且升级有限,短期内再推全新迭代的可能性较低。但若Meta希望借势AI眼镜热度带动生态扩张,也不排除提前发布轻量升级版的可能。开发者生态升级:智能眼镜SDK或将亮相无论哪款硬件最终发布,一个更关键的趋势正在浮现:Meta正试图构建智能眼镜的开放生态。Connect日程表显示,9月18日将有三场开发者会议明确提及"9月18日宣布新的Meta开发者工具包"。这些会议的主讲人均来自Meta的应用集成团队,LinkedIn资料显示他们专注于"将第三方应用接入Ray-BanMeta等AI驱动的智能眼镜"。更早前,CNBC也曾报道,Meta已邀请第三方开发者为HUD眼镜开发"实验性应用"。问题在于:这类眼镜算力极其有限,无法运行复杂本地应用。因此,所谓的SDK很可能并非传统意义上的客户端开发包,而是一套基于云端的AI服务接口--类似于亚马逊的AlexaSkills,允许开发者接入MetaAI的能力,实现语音指令、情境感知、实时翻译等服务。这标志着Meta对智能眼镜的定义已从"硬件产品"转向"AI入口平台"。Quest时代的终结?头显产品线进入静默期自2021年Connect大会上宣布公司更名并推出Quest2以来,每年的大会几乎都伴随着新一代头显的发布。但今年,这一惯例或将打破。我们几乎可以确定:Meta不会在2025年发布新款Quest头显。原计划中,Meta曾与LG合作开发QuestPro的继任者,但该项目已于今年初正式取消。LG已停止XR产品的商业化进程,仅保留基础研发。据知情人士透露,Meta下一代头显将是一款超轻量化、开放式周边设计的产品,计算单元外置(类似AirPodsPro的"耳挂+小盒"模式),搭载HorizonOS系统,预计2026年底才能面世。这意味着,Quest3和Quest3S将继续作为主力销售至少两年。而用户期待的"Quest4",短期内恐难现身。第三方入场:AsusROG头显或被"剧透"虽然Meta自身不再推新头显,但这并不意味着你不会在Connect上看到新设备。去年,Meta正式将Quest操作系统更名为HorizonOS,并宣布向第三方硬件厂商开放授权,首批合作伙伴包括华硕(Asus)与联想。其中,华硕将推出一款隶属于ROG(RepublicofGamers)系列的"高性能游戏头显"。据VR爱好者Luna年初获得的线索,该设备代号为Tarius,支持面部与眼动追踪,屏幕可能采用QD-LCD局部调光或micro-OLED方案。尽管目前尚无迹象表明该产品会在Connect2025上正式发布(更可能由华硕独立发布),但Meta完全有可能在主题演讲中"顺带提及"或进行预热展示。这不仅是对生态伙伴的支持,更是向行业传递信号:HorizonOS正在成为开放XR生态的核心平台之一。HorizonOS新功能:窗口共享或将对标AppleVisionPro如果说硬件是骨架,那么操作系统就是灵魂。去年,Meta大幅重构了HorizonOS的2D窗口管理系统,允许用户自由拖拽浏览器、安卓应用等界面,甚至可在沉浸式应用中保持后台运行。这一改进被广泛认为是对标AppleVisionPro的visionOS。但visionOS有一项核心功能至今缺席:跨用户窗口共享(SharePlay)。最新系统测试版(PTC)显示,HorizonOS已支持在VR主界面中"持久固定"窗口。而数据挖掘者Luna进一步发现,系统内部已出现"Share"按钮的相关代码,暗示未来可邀请他人查看自己的2D应用窗口。如果Meta在本次Connect上推出类似SharePlay的功能,将极大提升其在远程协作、社交娱乐场景中的竞争力。不过,如何解决DRM版权、传输延迟与稳定性问题,仍是技术挑战。游戏内容:DeadpoolVR压轴,大作续作或仅限"预告"近年来,Meta逐渐将重磅VR游戏的发布节点从Connect转移到夏季大型游戏展会。例如:《蝙蝠侠:阿卡姆阴影》(Batman:ArkhamShadow)于去年gamescom公布;《死侍VR》(DeadpoolVR)则在今年SummerGameFest亮相。《死侍VR》将于11月18日登陆Quest3与Quest3S,极有可能成为Meta今年唯一的第一方大作。不排除Meta会借此机会推出"购机送游戏"的捆绑促销。至于粉丝期待的《阿卡姆阴影2》,虽然已有配音演员确认项目启动,但鉴于开发周期较长,大概率不会在本次大会上公布。最多可能以"彩蛋"或"幕后花絮"形式短暂提及。Valve的"搅局"可能:SteamFrame商标已提交最后,还有一个"外部变量"值得关注:Valve。回顾2019年F8大会,Valve正是在Facebook的舞台上突然宣布Index头显并开启预售,成功抢走了Zuck的风头。六年后的今天,Valve与Meta的关系虽已缓和,但"趁势发布"的可能性依然存在。过去四年,Valve多次确认正在开发新一代头显,代号"Deckard"。近期,SteamVR代码中频繁出现"Roy"控制器模型,且Valve已于上周正式申请"SteamFrame"商标。此外,一个名为"SteamVRLinkDongle"的配件也被挖出,可能用于提升无线串流的稳定性,兼容所有独立头显。虽然Valve不太可能在Meta的舞台上正式发布新品,但选择在同一时段官宣,制造舆论热度,绝非不可能。结语:AI眼镜引领新趋势MetaConnect2025的主题已然清晰:从"元宇宙硬件"转向"AI可穿戴入口"。Quest产品线进入休眠期,重心全面向AI眼镜倾斜。Celeste的发布,不仅是硬件形态的突破,更是Meta对未来人机交互方式的重新定义--将AI能力无缝融入日常视觉体验。而随着HorizonOS生态开放、第三方厂商加入、开发者工具完善,Meta正在下一盘更大的棋:构建以AI为核心的下一代计算平台。周三晚5点(太平洋时间),一切终将揭晓。
PocketRealInc.今日正式发布其混合现实(MR)空间直播应用"Pokelia"的Alpha版本。该应用利用先进的MR技术,将虚拟主播(VTuber)、动漫角色及游戏角色"召唤"至现实空间,让用户在家中即可享受沉浸式直播体验--仿佛喜爱的角色就真实站在眼前。Pokelia目前已支持MetaQuest3,应用免费下载使用。用户可召唤自己喜爱的虚拟角色,并与其他数百名观众同步观看直播,享受多人共享的互动乐趣。应用支持自由调整角色的大小与位置,观众可根据自身空间环境,将角色放置在最合适的距离与角度,打造个性化的观看体验。为增强直播互动性,Pokelia内置了打赏与礼物系统,观众可通过赠送虚拟礼物支持主播,进一步提升参与感与娱乐性。未来版本还将陆续推出动漫与游戏角色的专属直播内容,以及点播(VOD)功能,丰富内容生态。PocketReal计划于2025年9月参加东京电玩展(TokyoGameShow2025),现场提供基于MetaQuest3的沉浸式演示体验。参观者将能亲身体验"BesideYourLikePerson"--让喜爱的角色仿佛陪伴在侧--的核心理念。该服务将率先在日本推出,后续将逐步拓展至北美与亚洲等海外市场。除现有VTuber合作外,公司也在积极洽谈与动漫、游戏IP的联动,致力于通过空间化内容分发,打造下一代沉浸式娱乐体验。应用概述应用程序名称:PocketReal价格:免费兼容设备:MetaQuest3分销商店:MetaQuestStore
在iPhone17系列正式亮相后,一个被广泛忽略却意义深远的技术细节浮出水面:尽管芯片性能大幅提升,但全系机型的空间视频(SpatialVideo)录制能力依然停留在1080p30fps--与2023年的iPhone15Pro相比,毫无进步。更令人遗憾的是,传闻中的"iPhoneAir"因仅配备单摄像头,彻底无法录制任何空间媒体内容。这意味着,在空间计算时代的关键入口上,苹果的步伐正显露出迟疑。空间视频三年原地踏步?自2023年iPhone15Pro首次引入空间视频录制以来,这项基于MV-HEVC编码标准的立体3D视频功能被视为AppleVisionPro生态的重要前置内容采集手段。去年,苹果将该功能下放至标准版iPhone16,大幅扩展了内容创作基数,被视为一次关键普及。然而,本被寄予厚望的iPhone17系列,却未能推动技术升级。无论是搭载A19Pro芯片的Pro机型,还是基础款iPhone17,均未突破1080p30的限制。这在2D视频已普遍支持4K120fps的当下,显得尤为刺眼。要知道,A19Pro芯片相较A17Pro有显著性能跃升,而去年A18Pro就已实现4K120fps视频录制,并支持前后双摄同步拍摄。图像信号处理器(ISP)的能力显然已今非昔比--那么,为何空间视频卡在三年前的门槛?空间视频录制发行年份iPhone15❌2023iPhone15Pro(Max)1080p30帧2023iPhone161080p30帧2024iPhone16Pro(Max)1080p30帧2024iPhone16e❌2025iPhone171080p30帧2025iPhone17Pro(Max)1080p30帧2025iPhoneAir❌2025谁在拖慢3D影像的进化?目前尚无官方解释,但业内推测可能受限于以下几个因素:热管理瓶颈:空间视频需同时处理双摄数据流并进行实时深度映射,持续高帧率运行可能导致过热降频。带宽限制:即使芯片算力足够,摄像头模块与处理器之间的数据传输通路可能成为瓶颈。编码效率:当前HEVC立体视频编码尚未优化到可高效支持更高规格的水平。生态节奏:苹果或有意控制内容质量上限,以匹配VisionPro当前的显示能力与存储成本。无论原因如何,结果是明确的:对于期待用手机创作高质量3D内容的用户而言,iPhone17系列并未带来实质进步。iPhoneAir的"单摄困局"与此同时,"iPhoneAir"的命名虽引发热议,但其单镜头设计直接决定了它无法捕捉立体视差信息--这是生成空间视频的基础。对比之下,即便是基础版iPhone16也具备双摄系统,支持空间视频录制。这一决策或许出于成本考量,但也暴露出苹果在产品线规划中的矛盾:一边大力推广VisionPro和空间视频生态,一边又在入门级设备上切断内容创作能力。
2025年9月9日,先进显示技术公司MojoVision宣布成功完成7500万美元的B+轮(SeriesBPrime)融资,旨在加速其高性能微LED(micro-LED)平台的商业化进程,并重点推动该技术在人工智能(AI)应用中的集成与赋能。此次融资由VanedgeCapital领投,多家现有及新晋投资机构参与,标志着资本市场对微LED作为下一代显示与计算平台的巨大潜力投下信任票。从AR隐形眼镜到微LED平台:战略转型后的关键一步MojoVision曾因开发全球首款增强现实(AR)智能隐形眼镜"MojoLens"而闻名。然而,公司在2023年初正式宣布终止该消费级产品项目,并将全部资源转向核心微LED显示技术的底层研发与平台化建设。公司当时明确表示:"我们相信,微LED技术有潜力颠覆价值1600亿美元的全球显示产业。"如今,这笔新资金正是这一战略转型进入商业化加速阶段的关键支撑。不止是显示:微LED正在成为"AI的视觉引擎"MojoVision强调,此次融资将不仅用于显示技术本身,更将推动微LED作为AI创新平台的应用落地。首席执行官NikhilBalram表示:"通过我们的微LED技术研发,Mojo已在性能标准上取得突破性进展,并为微LED作为大规模市场中AI创新的平台奠定了基础。""本轮融资超额认购,获得业界广泛支持,标志着我们下一代微LED平台在设计与生产上进入新阶段。公司正加速推进能够赋能AI的微LED应用的商业化。"这意味着,微LED不再仅被视为"更亮、更小、更省电的屏幕",而是可能成为AI系统感知、交互与输出信息的关键接口,例如:高密度AI视觉传感器超低延迟神经接口显示边缘AI设备的微型化光学输出单元技术突破:十年磨一剑,破解微LED四大难题近十年来,MojoVision持续攻克微LED技术的核心瓶颈--在尺寸、亮度、带宽密度和功耗之间难以兼顾的"传统权衡"。公司已开发出一套先进的集成制造工艺,融合多项尖端技术:300mm硅基架构:实现大规模、高良率晶圆级生产硅基氮化镓(GaN-on-Silicon)发光器:提升亮度与能效高性能量子点(QuantumDots):实现全彩显示与色彩精准微透镜阵列(Micro-lensArrays):增强光提取效率与视角这一整合方案使Mojo的微LED平台在像素密度、峰值亮度和功耗效率上均达到行业领先水平,为AR/VR、可穿戴设备、智能传感器等应用提供坚实基础。投资阵容强大:产业资本与科技巨头共襄盛举本轮融资由VanedgeCapital领投,该公司管理合伙人、MojoVision董事会成员MoeKermani表示:"MojoVision长期以来不断突破微LED技术的边界。其平台有能力变革AI基础设施的性能,并拓展AI应用的边界。"参与投资的机构包括:现有投资者:EdgeVentureCapital、NewEnterpriseAssociates(NEA)、FusionFund、KnollwoodCapital、DolbyFamilyVentures、KhoslaVentures新晋投资者:imec.xpand(比利时顶尖半导体研究机构imec的风投臂)、Keymaker、OhioInnovationFund、HyperlinkVentures强大的投资阵容不仅提供资金,更预示着MojoVision正与全球半导体、显示与AI生态建立深度连接。未来展望:从实验室走向市场尽管MojoLens项目已终止,但其积累的微光学、低功耗通信与微型化技术,正通过微LED平台以更广泛的方式释放价值。未来,MojoVision的技术可能应用于:下一代AR/VR头显:更高亮度、更小体积的近眼显示AI视觉传感器:用于机器人、自动驾驶的高动态范围成像医疗可穿戴设备:如智能内窥镜、神经监测接口空间计算设备:支持AI实时环境理解的微型投影系统结语:微光成炬,照亮AI未来MojoVision的故事,是一个从"炫酷概念"回归"核心技术"的典范。它不再执着于打造一款产品,而是致力于成为下一代智能视觉的"隐形引擎"。正如其名--Mojo(魔力),真正的变革,往往始于肉眼难见的微光。
2025年9月7日,全球领先的沉浸式3D创作与社交平台Roblox在年度开发者大会RDC2025上,宣布了一系列涵盖人工智能、创作者经济、用户体验、平台安全与IP合作的重大更新,进一步推动其"构建下一代互联网体验"的愿景。Roblox联合创始人兼首席执行官DavidBaszucki在大会上重申目标:"我们的愿景是,未来全球10%的游戏市场将通过Roblox生态系统流通。"创作者经济持续爆发:年收入破10亿美元Roblox的创作者生态正迎来黄金时代。在截至2025年6月30日的财年中,创作者通过开发者兑换计划(DevEx)获得的总收入突破10亿美元,创下历史新高,且预计2025全年将继续增长。平台进一步优化收益机制:DevEx兑换率提升8.5%,提升创作者实际收入;年收入前1000名开发者平均收入达约100万美元,较2020年增长2.9倍;创作者年收入中位数达到1,440美元,持续激励全球创作热情。AI全面升级:从生成内容到自然交互Roblox深化与NVIDIA的合作,推出基于生成式AI的全新功能:🔹4D对象(4DObjects)由NVIDIA技术支持,"4D"中的"第四维"代表交互性。这些AI生成的对象不仅能存在,还能与环境、角色和其他物体动态互动。例如:可驾驶的汽车、可破坏的建筑、会响应天气变化的植被等。✅测试版将于2025年第四季度上线。🔹AI助手全面增强支持使用自然语言进行编码、开发、纹理生成;即将支持模型上下文协议(MCP),可作为MCP服务器或客户端,与Figma、BlockadeLabs等外部工具无缝集成;助手能力覆盖从原型设计到内容发布的全流程。社交与内容传播:新功能"朋友圈"上线Roblox推出实验性社交功能--"朋友圈"(Circles),旨在提升用户互动与内容传播:玩家可剪辑并分享游戏内的短视频;目前面向13岁及以上用户开放;未来将向创作者开放API接口,助力作品曝光与粉丝增长。实时语音翻译即将登场,打破语言壁垒Roblox持续推进全球化沟通体验:实时语音聊天翻译:预计2026年上线,支持英语、西班牙语、法语、德语之间的实时语音互译,让不同语言的玩家无缝交流。文本转语音API(TTS):支持将文本转换为10种语音,可用于NPC对话、剧情旁白等场景。语音转文本API(STT):支持语音命令控制游戏行为,并为音频内容生成字幕,提升无障碍体验。✅两项API的测试版将于2025年底启动。引擎与性能升级:更真实、更公平、更流畅为支持更复杂的游戏类型,Roblox推出多项底层技术改进:增强服务器权限:提升反作弊能力,优化物理模拟精度,尤其适用于竞技类游戏;虚拟角色动作升级:奔跑、攀爬、跳跃障碍等动作更加自然流畅;逼真度增强技术:正在开发中,将进一步提升角色与环境的沉浸感;跨设备渲染优化:无需创作者额外调整,即可在各类设备上实现高质量视觉表现。全球基础设施与安全建设数据中心扩展巴西圣保罗新数据中心即将启用,显著降低南美地区延迟,提升本地玩家体验。安全与合规年底前强制所有用户进行年龄预估;推出新系统,防止未成年人与陌生人之间的不当互动;持续投入平台健康生态建设,打造更安全的在线环境。IP合作再扩容:美泰、讲谈社携手共创Roblox加速拓展IP生态,宣布新老合作伙伴重磅内容:新伙伴:美泰(Mattel)将引入四部经典IP,包括:《波莉口袋》(PollyPocket)《火柴盒》(Matchbox)现有伙伴:讲谈社(Kodansha)继续深化合作,带来:《蓝色监狱》(BlueLock)《关于我转生变成史莱姆这档事》(ThatTimeIGotReincarnatedasaSlime)并将推出授权游戏《蓝色监狱:对手》(BlueLock:Rivals)结语:构建未来数字世界的"操作系统"从AI生成内容到跨语言交流,从创作者赋能到全球IP联动,RDC2025展现了Roblox不只是一个游戏平台,更在向下一代数字世界基础设施迈进。
2025年9月4日,国防科技公司Rivet宣布获得美国陆军一份价值1.95亿美元的主承包合同,用于开发"士兵携行任务指挥系统"(SoldierBorneMissionCommand,SBMC),标志着其正式进入美军核心战术系统供应链。合同核心:为步兵打造战场"神经中枢"SBMC是美国陆军面向连级及以下徒步作战单位的下一代态势感知与任务指挥平台,目标是:将士兵、传感器、武器与任务系统数据整合为统一作战画面(CommonOperationalPicture);在低光照、沙尘环境、通信受限等恶劣条件下稳定运行;实现快速部署、模块化扩展,支持未来技术集成。Rivet将通过与士兵协同迭代测试的方式推进开发,确保系统真正贴合前线需求,提升作战效能以应对不断演变的威胁。技术亮点:军用级XR+兼容ATAC生态✅深度集成ATAK:完全兼容美军广泛使用的AndroidTacticalAssaultKit(ATAK)架构,确保与现有指挥系统无缝对接;🔧模块化设计:支持多种传感器即插即用,适应不同任务场景;🛡️坚固耐用:专为"极端环境"设计,区别于消费级设备或笨重工业装备,轻便且高可靠性;🕶️XR赋能:结合增强现实(AR)与空间计算技术,提升士兵在复杂环境中的信息获取速度与决策清晰度。关于Rivet:从"隐身"到军方核心供应商Rivet于2025年初结束"隐身"状态,定位为"国防级移动与XR系统"开发商,专注于为国防、安全、工业与先进制造领域的前线人员提供高韧性技术解决方案。其核心理念是"动态前线作战"(DynamicFrontlineOperations)--即通过软硬件一体化系统,让一线人员在高压、动态环境中保持连接、感知与决策优势。生态合作与团队布局🤝战略伙伴:已与Palantir(数据智能)和NorthropGrumman(军工巨头)建立合作,强化任务系统集成与空间情报能力;🌍全球团队:总部位于华盛顿特区,在帕洛阿尔托、西雅图设有研发中心,欧洲与亚洲设有支持团队。意义与展望此次合同不仅是Rivet成立以来的最大里程碑,也反映出美军正加速推进"单兵数字化"与"战术边缘智能化"战略。SBMC未来可能成为美军小型作战单元的标配系统,影响深远。随着XR、AI与边缘计算在军事领域的深入应用,Rivet的这一项目或将重新定义"现代步兵"的作战方式。
本周,XR眼镜与沉浸技术公司VITURE宣布成功完成两轮新的B系列融资,总金额达1亿美元。本轮融资吸引了多位"知名科技行业领投方"参与,部分投资方未公开披露。此前,VITURE在2023年10月的B轮融资中已获得SingtelInnov8、BlueRunVentures、BAICapital和VerityVentures等机构支持。融资背景:Luma系列XR眼镜全面上市此次融资紧随其Luma系列XR眼镜的全球发布。该系列目前包含四款产品:LumaPro(7月起发售)配备高分辨率显示屏、两种尺寸可调镜框,以及氛围灯设计,主打沉浸娱乐体验。LumaUltra(上周起发货)支持AR功能与手势控制,定位企业级应用,标志VITURE正式进军生产力与专业场景。TheBeast(预计2024年底发布)搭载VITURE最大最亮的XR显示屏,支持3DoF跟踪、SmoothFollow流畅跟随技术、超宽模式与自定义屏幕尺寸,瞄准高端用户。构建完整XR生态:不止是硬件VITURE正在打造一套完整的沉浸式技术生态系统,包括:Immersive3D:AI驱动的2D转3D内容平台,兼容全系列设备,提升观影沉浸感;SpaceWalker:多屏XR软件,支持PC、Mac、iOS、Android,实现虚拟多屏办公;ProMobileDock:宣称可实现"在NintendoSwitch2上畅玩XR游戏"(注:或为概念性表述,待Switch2发布验证);VITURE×8BitDo联名限量版控制器:专为VITUREXR眼镜优化,提升游戏操控体验。战略方向:从娱乐走向工作与教育VITURE表示,此次融资将主要用于:🌍全球零售扩张🏢企业级部署:推动XR在办公协作、远程会议、教育培训等场景落地🧠AI+XR生态持续研发:强化AI内容转换、多设备协同与智能交互公司强调:"我们的目标是让XR技术超越娱乐,融入日常工作流、课堂与办公室。"总结凭借1亿美元融资与Luma全系列上市,VITURE正从一家XR硬件厂商,加速转型为覆盖硬件、软件、AI与企业服务的综合生态平台。随着LumaUltra和TheBeast推出,VITURE正在向消费娱乐+企业生产力双轨并进,挑战Meta、Apple等巨头在空间计算领域的布局。
近日,Adobe正式宣布:将于2025年11月6日起下架其增强现实创作工具Aero,并于12月3日全面停服,所有.real格式的AR场景将彻底失效。这意味着,这款曾承载Adobe"让每个创意者都能制作AR"的愿景工具,将在短短一个多月后,从全球数百万CreativeCloud用户的设备中消失。这不是一次普通的软件退役,而是一记敲给整个XR行业的警钟--即便是最强大的创意生态,也无法独自托起一个尚未成熟的市场。时间线即倒计时:企业用户正在失去"数字资产"Adobe为Aero设定的关闭时间线,冷峻而明确:2025年11月6日:Aero从CreativeCloud、AppStore、GooglePlay全面下架,新用户无法下载或部署;2025年12月3日:服务彻底终止,所有已创建的AR内容(.real文件)将无法加载与播放;2025年12月16日:用户数据从Adobe服务器永久删除。这意味着,企业数月甚至数年的AR内容投资,将在不到两个月后变成"数字废墟"--营销活动、培训演示、产品可视化项目,一旦未及时导出或迁移,便将彻底归零。Adobe的官方声明轻描淡写:"我们仍在探索混合现实,但团队将资源转向其他优先领域。"可这句"战略聚焦",背后是残酷的现实:市场没来,用户没留,商业闭环未成。Aero曾是"民主化AR"的希望火种2019年,Adobe推出Aero时,愿景极其宏大:"让Photoshop用户像拖拽图层一样,轻松创建AR体验。"它无缝集成Illustrator、Photoshop等工具,支持手势交互、空间锚定、光照匹配,甚至允许非程序员通过可视化界面构建复杂的AR场景。对于中小企业、教育机构、独立设计师而言,Aero是当时门槛最低、生态最顺滑的AR创作入口。它不像Unity或Unreal那样需要编程基础,也不像enterpriseAR平台(如PTCVuforia、AppleRealityComposer)那样侧重工业场景。Aero瞄准的是"人人可创AR"的大众市场。可如今,这扇门被关上了。为什么Adobe的AR梦碎了?1.硬件未至,内容先行的"死亡谷"Aero诞生于"AR眼镜即将爆发"的乐观预期中。但现实是:AppleVisionPro价格高昂,消费级渗透缓慢;Meta、MagicLeap转向企业市场;GoogleGlass早已退场;消费者仍习惯用手机看AR,体验碎片化。没有主流终端承接内容,AR创作工具就成了"无处播放的电影"。2.缺乏商业模式,沦为"功能彩蛋"Aero是免费工具,Adobe从未为其设计清晰的变现路径。它更像是CreativeCloud的"功能增值项",而非独立产品线。当ROI(投资回报率)无法衡量时,资源必然被重新分配。3.企业需求≠大众创作企业级AR需求真实存在--培训、维修指导、远程协作、产品展示。但这些场景需要的是高精度、强稳定性、可集成的解决方案,而非Aero这类"轻量创作玩具"。最终,Aero既未能打入工业市场,也未能引爆消费创作。4.生态孤岛:AR内容无法"流通".real文件只能在Aero中运行,无法导出为通用格式(如glTF+WebXR),也无法嵌入网页或社交媒体原生播放。AR内容成了"封闭容器",传播链条断裂。对企业的三大警示Adobe的退出,不仅是技术选择,更是对当前AR产业格局的权威否定。它向所有企业决策者发出三重警示:⚠️警示一:不要将"创作工具"与"平台生态"混淆Aero依赖Adobe生态生存,但AR本身尚未成为平台。就像在没有YouTube的时代拍视频,再好的内容也难传播。⚠️警示二:评估供应商的"长期承诺"比功能更重要当一家巨头都选择退出,你该如何信任一个初创AR平台的"十年规划"?未来几年,AR市场将迎来加速洗牌期,只有具备清晰商业模式(如工业软件、空间计算OS)的玩家才能存活。⚠️警示三:数字资产的"可迁移性"是生命线你的AR内容是否锁定在私有格式?能否导出为开放标准?这是未来避免"数据人质"风险的关键。建议立即行动:导出Aero项目中的3D资产;录制现有AR体验视频存档;迁移至支持WebXR或USDZ的平台(如SparkAR、ModelViewer、8thWall)。行业正在进入"理性重构期"Adobe的退出,并不意味着AR的终结,而是虚火褪去、价值重构的开始。真正有生命力的方向正在浮现:Apple的RealityOS+VisionPro:聚焦高端生产力与空间计算;Meta的Quest+Ray-BanAI眼镜:探索社交与情境感知;工业AR(PTC、Siemens):在制造、能源、医疗领域落地;WebXR+3D引擎:以开放标准推动内容流通。未来的AR,不再是"手机加滤镜",而是空间操作系统的一部分。它需要的不是"人人都能做AR",而是"AR能自然融入工作流"。结语:梦碎未必是终点,可能是重生的起点AdobeAero的关闭,像一场安静的葬礼,送别了一个过于乐观的时代。但它也提醒我们:真正的技术革命,从不靠单点工具推动,而需硬件、生态、场景的共同成熟。AR的未来仍在,只是路径更清晰了--不再是"用创意点燃市场",而是"用价值赢得终端"。当那一天到来时,我们或许会记得:曾有一款叫Aero的工具,试图让世界多一层想象。它失败了,但火种未熄。
在XR行业仍在为消费端出货量焦灼之际,一场发生在供应链上游的并购动向,正悄然酝酿着更深远的产业变革信号。Goertek(歌尔股份)与SunnyOptical(舜宇光学)--这两家中国科技制造与光学领域的"国家队级"巨头,近日签署了一份非约束性谅解备忘录(MOU),计划通过一项零现金交易、股权换资产的创新模式,推动歌尔光学收购舜宇旗下专注于AR微纳光学的上海OmniLight100%股权。这不仅是一次技术整合,更可能成为中国资本密集型高科技行业并购范式的一次"范式转移"。不是收购,而是共建:一场"风险共担、利益共享"的战略联姻传统并购逻辑中,往往是"强者吞并弱者"或"资本驱动整合",但此次Goertek与SunnyOptical的交易结构却打破了常规:无现金交易:不涉及现金支付,避免一方资产负债表承压;股权置换资产:舜宇光学以其OmniLight资产,换取重组后"歌尔光学"33.33%的股权;歌尔控股、舜宇参股:歌尔保持66.67%控股权,舜宇则成为深度绑定的战略股东。这意味着,这不是一场"买断式收购",而是一次共建合资平台的尝试。双方不再是"买家与卖家",而是共同创业者。正如一位AR产业分析师所言:"董事会认为,这项交易将创造显著协同效应,使双方优势互补。"--这句话背后,是两家巨头对AR光学未来技术路线的共同押注。为何传统M&A在硬科技领域频频失败?回顾科技史,失败的并购案例比比皆是:微软72亿美元收购诺基亚手机业务后,两年内计提近80亿美元减值;多起半导体并购因文化冲突、技术路线分歧而流产;硬件领域"买来即整合"的模式,常导致核心团队流失、研发停滞。根本症结在于:激励错配。收购方承担全部财务风险,被收购方"套现离场",缺乏持续投入的动力。而Goertek-Sunny模式,通过让舜宇以资产入股、长期持股,从根本上解决了这一问题--失败,大家一起承担;成功,大家共同受益。"轻资产整合"四大优势:为高投入行业提供新范式这种"Asset-LightConsolidation"(轻资产整合)模式,展现出四大战略价值,尤其适用于AR、半导体、先进材料等资本与技术双密集型产业:1.激励对齐,拒绝"躺赢"舜宇保留三分之一股权,意味着其技术团队和管理层必须持续为新实体创造价值,才能实现资产增值。这极大降低了"并购后人才流失"的风险。2.保留核心能力,避免知识断层OmniLight作为国内少数掌握AR波导、微纳光学设计能力的企业,其技术积累高度依赖核心人才。股权绑定机制有助于留住关键工程师与研发骨干。3.资本效率最大化双方无需动用大量现金,即可实现资源整合。节省下来的现金流可用于AR光学、AI感知等前沿领域的持续研发投入--而这正是技术领先的关键。4.风险共担,决策更理性不再是一家公司孤注一掷,而是双方共同评估整合路径,推动更稳健、更可持续的协同规划。对XR产业意味着什么?AR光学的"台积电时刻"正在到来Goertek早已是全球主流VR/AR设备的核心ODM/OEM供应商,而OmniLight在衍射波导、纳米压印、自由曲面光学等AR核心光学技术上拥有深厚积累。此次整合一旦完成,意味着:Goertek将具备从光学设计、模组制造到整机集成的全栈AR硬件能力;中国企业有望在AR光学这一"卡脖子"环节实现自主突破;未来AR眼镜的光学模组成本有望下降,推动消费级产品更快普及。想象一下:工程师佩戴轻量化AR眼镜,实时查看设备数字孪生体;外科医生在手术中调用高精度全息影像--这些场景的实现,离不开高性能、低成本的光学系统支撑。挑战犹存:治理复杂性、文化融合与监管门槛当然,新模式也面临挑战:治理结构更复杂:33%的少数股权若拥有重大否决权,可能影响决策效率;退出机制模糊:若合作失败,资产分割与股权退出将极为复杂;反垄断审查风险:在光学领域市占率提升后,可能引发监管关注;企业文化融合:两家大型制造企业的组织协同仍需时间磨合。但相比传统并购"赢则通吃、败则归零"的高风险模式,这种"共担共享"的结构显然更具韧性。一个可能被广泛复制的"中国式整合模板"如果Goertek与SunnyOptical的试验成功,这套"轻资产整合"模式或将被复制到更多高投入、长周期的硬科技领域:半导体:设计公司与制造厂共建先进制程平台;动力电池:材料商与电池厂合资研发下一代固态电池;AI硬件:芯片公司与光学企业联合开发智能感知模组。正如一位产业专家所言:"当AI与沉浸式技术融合,我们将迎来更智能的培训、高度个性化的体验与实时决策支持。AR/VR的未来,不只是我们看到什么,更是它如何智能地适应我们。"结语:MOU只是起点,但方向已明目前,这份MOU仍属非约束性协议,最终交易还需完成尽职调查、签署正式协议,并通过监管审批。一切尚未尘埃落定。但这份协议本身,已释放出强烈信号:中国硬科技企业正在探索更成熟、更可持续的整合路径--不再是简单的"大鱼吃小鱼",而是"强者联手,共建生态"。如果成功,Goertek与SunnyOptical不仅将重塑AR光学格局,更可能为全球高科技并购提供一个来自中国的"新范式"。未来是否会有更多行业从"征服"转向"协作"?我们拭目以待。但可以确定的是:在通往空间计算与智能感知的道路上,合作,或许比竞争更接近答案。
VR52网成立于2015年,平台提供VR头显、AR眼镜、配件外设、厂商、测评、行业资讯、游戏与应用、展会活动等。