翻车之后,CTO亲自拆解故障根源在2025年MetaConnect大会的主舞台上,两场关键智能眼镜功能的现场演示接连失败,让马克·扎克伯格罕见地陷入尴尬。当时他将问题归因于"会场Wi-Fi太差",但事后,Meta首席技术官安德鲁·博斯沃思(AndrewBosworth)在Instagram的AMA问答中,给出了更真实、也更技术性的解释。这不是简单的网络问题,而是两个独立系统缺陷,在高压环境下被意外触发的结果。LiveAI为何陷入"已混合原料"死循环?第一场故障出现在"LiveAI"功能的演示中。该功能允许用户与MetaAI进行持续对话,无需反复唤醒"HeyMeta",AI还能实时感知视野内容。现场,厨师JackMancuso在Meta园区厨房启动功能后,AI准确识别了酱油等食材。但当他询问如何制作韩式牛排酱时,AI却不断重复:"你已经混合了基础原料。"博斯沃思解释,真正原因是:声音广播引发全楼设备误触发。Mancuso说"HeyMeta,startLiveAI"时,声音通过会场扬声器播放;导致建筑内所有Ray-BanMeta眼镜同时启动LiveAI;为保障演示稳定,Meta将园区LiveAI流量集中导流至一台开发服务器;成百上千并发请求瞬间压垮服务器,导致响应异常。至于为何AI反复声称"已混合原料",博斯沃思未作说明。合理推测是:服务器崩溃后返回了缓存中的排练数据;另一种可能是,Meta在演示中预设了部分流程,系统故障后暴露了"半真半假"的底层逻辑。更值得警惕的是:MetaAI至今不支持声纹识别。而Siri、Alexa、GoogleAssistant早已实现语音身份认证,防止误操作或隐私泄露。视频通话失败:一个"休眠"引发的系统死锁第二场故障发生在扎克伯格亲自演示MetaRay-BanDisplay眼镜接听WhatsApp视频来电时。理论上,他应能语音或手势接通,画面直接显示在镜片上。多家媒体(如TheVerge)实测确认功能可用,但现场却连续四次失败。博斯沃思透露,根本原因是一个极小概率的"竞态条件"(racecondition):来电通知到达的瞬间,眼镜显示屏恰好进入休眠状态;系统未能正确处理通知与唤醒的时序冲突,导致来电被阻塞;更严重的是,该错误使系统进入异常状态,后续所有呼叫均无法接入。他坦言:"这种bug出现在这种场合,真是糟糕透顶。"尽管团队已测试上百次,此前从未复现。如今漏洞已被修复。正常视频通话时为什么坚持高风险的"真演示"?尽管翻车,博斯沃思仍为"真实演示"辩护。他在AMA中表示:"我不明白人们觉得风险在哪……去看看媒体评测吧,如果产品不好用,他们根本不会写好评。他们试了,也说了:这东西是真的,能用。观众都懂--没人日常处在2500个无线设备同时干扰的环境里。"这代表了一种与苹果"精心编排式发布"截然不同的产品哲学:宁可暴露瑕疵,也要展示真实能力。业内反应两极:有人嘲讽,也有人认为这种"不完美"反而增强了可信度--毕竟,预发布阶段的演示本就充满不确定性。用户可亲自验证,产品才是最终裁判从9月30日起,MetaRay-BanDisplay眼镜已在BestBuy、LensCrafters和Ray-Ban门店开放体验。这意味着,消费者不再需要依赖发布会表现,而是可以亲自验证功能是否流畅。演示可以翻车,但产品必须经得起真实世界的考验。对Meta而言,真正的挑战,才刚刚开始。
Meta正在彻底重塑其VR内容创作生态。其桌面端创作工具HorizonWorldsDesktopEditor将正式更名为MetaHorizonStudio,并迎来一项革命性升级:一个全新进化的AI助手,将能够从零生成世界、资产与玩法机制,把VR世界的创建时间从数小时压缩至几分钟。从"编辑器"到"生成器":HorizonStudio的AI进化自今年2月以"HorizonWorldsDesktopEditor"之名进入早期测试以来,这款Windows平台的平面创作工具便肩负着接替旧版VR内建创作工具的使命。它支持导入3D模型、图像、音频,并允许开发者使用TypeScript编写交互逻辑,构建出可在HorizonWorlds中实时多人游玩的虚拟空间。在过去一年中,Meta持续为该编辑器注入AI生产力,现已支持在美国、英国、加拿大、欧盟、澳大利亚、新西兰等地区AI生成:3D网格(meshes)材质纹理(textures)天空盒(skyboxes)音效与环境音(soundeffects,ambientaudio)TypeScript代码整体岛屿/地形(islands)创作者助手(CreatorAssistant)的局限与突破去年,Meta推出了CreatorAssistant--一个能执行开发任务的AI代理。例如,你只需说:"做一个按钮按下后门就打开的机关",它就能:从资源库中找到门和按钮;将其放置在场景中;设置属性;编写并绑定TypeScript代码。但有一个关键限制:它无法生成新资产,只能调用现有资源库中的内容。这一瓶颈将在新版HorizonStudio的升级版AI助手中被打破。全新AI助手:从"拼装"到"创造"Meta宣布,升级后的AI助手将具备端到端的生成能力,能够:AI生成整个VR世界:根据一句话描述(如"一个赛博朋克风格的未来城市,夜晚下雨,有霓虹灯和飞行汽车"),自动生成完整场景;按需生成特定资产:如"一只会发光的机械狐狸"或"一座中世纪石桥";实现指定玩法机制:如"设计一个解谜游戏,玩家需按顺序踩踏地板上的符文才能开门";创建自定义NPC:不再是基于标准MetaAvatar的简单角色,而是完全由AI生成外观与行为的非玩家角色。更进一步,这些NPC将支持:自然语言对话(与用户语音交互);世界背景理解(创作者可设定其知识库);动态事件感知(能感知当前游戏状态,如"宝藏已被取走")。这意味着,你未来可能只需说:"帮我做一个奇幻冒险世界,有会说话的龙和隐藏宝藏",AI就能为你生成一个可玩、可交互、可多人进入的完整VR体验。新引擎加持:HorizonEngine带来性能飞跃所有在HorizonStudio中创建的世界,将运行于全新的HorizonEngine,取代此前基于Unity的运行时系统。Meta表示,新引擎带来显著提升:加载速度提升4倍;单实例支持超过100名用户同时在线;更高效的资源管理与网络同步。这为大规模社交活动、虚拟演出和复杂游戏逻辑提供了坚实基础。尚无发布时间,但潜力无限目前,Meta尚未公布HorizonStudio及其增强AI助手的具体上线时间。但如果最终实现效果如其所述,这将彻底降低VR内容创作的门槛。过去需要数小时建模、编程、调试的工作,未来可能只需几分钟的自然语言指令即可完成。独立创作者、教育者、小型团队将获得前所未有的生产力工具,真正实现"人人都是元宇宙建筑师"。结语:AI正在重新定义"创作"从Photoshop的GenerativeFill到Unity的Sentis,AI正在渗透内容创作的每一个环节。而MetaHorizonStudio的升级,标志着AI驱动的VR世界生成已从概念走向现实。当"想象"与"实现"之间的距离被压缩到几分钟,元宇宙的爆发式增长,或许只差一个"生成"按钮。
在今日举行的MetaConnect开发者大会上,Meta正式发布了与依视路·陆逊梯卡(EssilorLuxottica)联合打造的下一代智能眼镜产品线,几乎完全印证了昨日的"意外泄露"。其中最受瞩目的,正是传闻已久的搭载单目光学显示屏的MetaRay-BanDisplayGlasses--这标志着Meta在消费级增强现实(AR)眼镜上的首次实质性突破。扎克伯格在主题演讲中展示了三款新基础型号,命名策略也迎来一次微妙调整:原本预期的"Ray-BanMetaGen3"并未出现,取而代之的是定位最高端的MetaRay-BanDisplayGlasses。这一命名变化突显了"显示功能"作为核心卖点的战略意图。其余两款则延续品牌合作路线:主打运动风格的OakleyMetaVanguard,以及迭代款Ray-BanMetaGen2。后者与今年7月发布的OakleyMetaHSTN共同构成更完整的产品矩阵,覆盖不同用户场景与审美偏好。799美元的AR尝试:一块单目屏,如何改变交互?新发布的MetaRay-BanDisplayGlasses定价799美元,硬件配置延续了前代优势:1200万像素摄像头、五麦克风阵列、双耳外放扬声器、语音控制、拍摄LED提示灯等一应俱全,并统一采用高通SnapdragonAR1Gen1芯片平台。真正划时代的升级,在于右眼集成的全彩单目微显示器。这块600×600像素、视场角达20°的屏幕,像素密度为42PPD,刷新率90Hz(内容更新30Hz),亮度范围30–5000尼特,支持UV感应自动调节显示强度。Meta强调其光学设计具备极低光泄漏(<2%),确保他人难以窥视你正在查看的内容,兼顾隐私与实用性。这意味着,用户终于可以在不掏出手机的情况下,私密地浏览信息、接收通知、甚至进行视频通话。你可以一边走路,一边通过镜片看到WhatsApp、Messenger或Instagram的消息,并直接语音或手势回复。更进一步,它还能实现第一人称视角的实时直播通话--对方能看到你眼中所见的世界。手势之外:sEMG神经腕带开启"无感交互"新维度如果说显示屏是"输出端"的进化,那么随眼镜一同亮相的MetaNeuralBand(神经腕带)则是输入方式的革命。这款基于表面肌电图(sEMG)技术的可穿戴设备,能捕捉前臂肌肉在手指和手部动作时产生的微弱电信号,实现无需视觉识别的精准手势控制。它支持全天佩戴,续航长达18小时,具备IPX7防水等级,并内置触觉反馈功能。具体交互方式包括:拇指轻扫:左右切换音乐捏合手指+手腕旋转:调节音量Meta正在开发的EMG手写识别功能,未来或可直接"空中写字"输入文本当视觉显示与sEMG手势结合,一系列新场景被解锁:导航时,镜片上可叠加步行路线与区域地图(目前为有限城市Beta测试);对话中,系统可提供实时字幕与外语翻译,近乎实现"无障碍沟通";拍照时,显示屏可作为取景器,支持3倍数码变焦,并允许直接预览、保存和分享照片与1080p视频。从处方支持到全球扩张:Meta的谨慎野心MetaRay-BanDisplayGlasses默认配备变色镜片,支持-4.00至+4.00的处方镜片适配(具体方案尚未详述),电池续航约为6小时混合使用,配合可折叠便携充电盒可延长至30小时,并支持20分钟快充50%。产品首发提供ShinyBlack与ShinySand两种配色,镜框有标准与大号可选,NeuralBand提供三种腕围尺寸。由于需要专业验配,Meta将采取线下优先策略,9月30日起仅在美国部分实体零售商发售,包括BestBuy、Lenscrafters、SunglassHut和Ray-Ban门店,Verizon门店也将陆续上架。国际市场的扩展计划已明确:加拿大、法国、意大利和英国将于2026年初推出,后续将逐步开放更多购买渠道。
Meta彻底重构了其Quest头显上的"TV"应用--这个曾经名为OculusTV、后更名为MetaQuestTV的应用,如今已简化为"TV",并迎来一次战略级转型。最引人注目的变化是:所有用户上传的180°与360°视频内容已被下架,并将于9月22日正式删除。Meta已通过邮件通知创作者,建议他们提前将内容迁移至YouTube等平台。这一举动标志着Meta彻底告别"UGC视频托管"模式,转而将TV应用打造为一个聚合式内容入口,横跨平面视频与沉浸式内容,连接第三方流媒体服务与自家生态。从UGC平台到内容聚合hub:一次战略收缩TV应用的前身OculusTV曾是VR用户观看全景视频的核心场所。无论是极限运动、演唱会还是短片创作,用户都可以上传自己的180°或360°视频,并在头显中沉浸式观看。但随着VR内容消费习惯的演变,Meta显然意识到:让用户在头显里看平面视频,远比培养全景内容生态更现实。因此,这次改版的核心逻辑不再是"构建VR原生视频社区",而是"让Quest成为家庭娱乐的延伸入口"。TV应用不再直接播放来自PrimeVideo或Peacock的平面内容,而是作为一个推荐与跳转中枢,将用户引导至对应的应用内观看。七标签布局:Meta的"头显版智能电视"野心新版TV应用采用全新设计,顶部设七个标签页:首页、电影、电视剧、沉浸式、体育、音乐、收藏单。电影&电视剧:内容来自AmazonPrimeVideo和Comcast旗下的Peacock。点击后跳转至对应应用播放,TV应用本身不承载视频流。沉浸式:保留部分专业制作的180°/360°视频,合作方包括TARGO、RedBull、Tested、SNL等;同时整合HorizonWorlds中的虚拟演唱会链接。体育:聚合PrimeVideo和Peacock提供的赛事直播、纪录片与体育电影,同样为跳转链接。音乐:混合了HorizonWorlds正在进行的虚拟演出、过往演唱会的全景录像,以及AmazonMusic的内容入口。收藏单:用户可将跨平台内容加入统一收藏,实现"一处添加,多端追踪"。值得注意的是,尽管应用内仍用"180°"和"360°"标签标识沉浸式内容,但并未区分2D与3D全景视频--这在追求立体沉浸感的VR场景中,略显粗糙。为3D内容铺路?Meta的长期野心仍在尽管当前TV应用已大幅简化UGC功能,但Meta并未放弃对高质量沉浸式内容的投入。2024年,Meta与《阿凡达》导演詹姆斯·卡梅隆宣布达成多年独家合作,旨在为Quest设备提供更多3D视频内容。今年早些时候,《华尔街日报》更披露,Meta正积极"游说"好莱坞公司如迪士尼、A24,承诺投入"数百万美元",邀请它们基于知名IP开发系列化或独立的沉浸式视频内容。此次TV应用的架构升级,或许正是为未来大规模上线的3D/全景内容做准备--通过统一的内容分类、推荐系统与收藏机制,构建一个可扩展的沉浸式内容浏览框架。下一站:MetaConnect2025MetaConnect2025大会即将于下周举行。届时,公司很可能会进一步披露其在内容生态、视频体验与AI驱动推荐方面的最新战略。可以预见的是,Quest不再仅仅被定位为"VR游戏机",而是朝着"下一代家庭娱乐中枢"演进。而TV应用的这次重构,正是这一愿景的关键一步:舍弃低效的UGC托管,拥抱成熟的流媒体生态,同时为未来的3D与沉浸式内容预留接口。在用户尚未大规模生产VR视频的今天,Meta选择先让用户"看进去",再考虑"拍出来"--这是一次务实的退步,也可能是一次更深远的进击。
科技巨头新一轮的可穿戴设备竞赛,正悄然从手腕移向鼻梁。据《TheInformation》援引两名知情人士报道,亚马逊正在秘密开发一款代号为"Jayhawk"的消费级智能眼镜,计划于2026年底或2027年初上市,直接对标Meta即将推出的带显示功能智能眼镜"Hypernova"。这场对决,标志着语音助手与AR/VR平台之争进入新战场。"Jayhawk":亚马逊的全功能智能眼镜野心与目前仅支持音频交互的EchoFrames不同,"Jayhawk"将是一次全面升级,配备:麦克风与扬声器(支持通话与语音控制);摄像头(用于拍照与视频);单目彩色显示屏--首次让亚马逊眼镜具备视觉信息输出能力。这意味着用户或将能在视野中直接查看通知、导航、Alexa响应内容,甚至观看简短视频。尽管尚未确认是否基于空间计算的真正AR,但其功能已远超当前EchoFrames系列。目前尚不清楚"Jayhawk"是否会归入现有的EchoFrames产品线。自2019年推出以来,该系列历经三代更新(最新款发布于2023年底),始终聚焦音频与语音交互,从未加入摄像头或显示屏。而"Jayhawk"的出现,预示亚马逊正试图打破这一边界。双线并行:消费者版之外,还有物流专用眼镜"Amelia"亚马逊并未将所有筹码押在消费市场。报道称,公司同时在开发另一款面向配送司机的智能眼镜,代号"Amelia"。这款设备更注重实用性而非设计美感:外形更笨重;主要功能是通过显示系统为司机提供分拣与派送指引;计划于2026年第二季度rollout,首批生产10万台。若成功落地,这将成为亚马逊提升物流效率的新工具--类似DHL等企业早已在仓库中使用智能眼镜优化拣货流程。第三代EchoFrames|图片由亚马逊提供对决Meta:"Hypernova"已近量产与此同时,Meta的脚步更快。据供应链分析师郭明錤与彭博社MarkGurman消息,其代号"Hypernova"(或命名"Celeste")的智能眼镜已接近量产,预计售价约800美元。虽然Meta同样称其为"增强现实"设备,但从描述来看,它更符合高端智能眼镜定义:提供抬头信息显示,可能集成AI助手与轻量级视觉交互,而非复杂的空间锚定3D内容。相比之下,亚马逊虽起步稍晚,但凭借Alexa生态、电商物流场景与内容资源,具备差异化优势。智能眼镜的临界点到了吗?值得注意的是,术语需厘清:AR眼镜:能将3D数字内容稳定叠加于现实环境;智能眼镜:主要提供信息提示、语音交互与拍摄功能,即使有屏幕,也多为静态或2D内容。目前Meta与亚马逊的新品仍属后者。但它们的共同出现,表明一个趋势:下一代人机交互入口的争夺,已从智能手机延伸至"常开、常在线"的视觉化穿戴设备。亚马逊能否借"Jayhawk"后来居上?答案或许就在2027年前揭晓。
2025年,当所有人都以为Meta的Quest3硬件已"定型",一次名为HorizonOSv78的系统更新,悄然激活了它被低估的潜力--将一台VR头显,变成了可用的入门级3D影像采集设备。核心变化,藏在一个看似技术冷门的功能里:透视摄像头API(PassthroughCameraAPI)的画质飞跃。从"模糊涟漪"到"清晰可用":一次被开发者发现的蜕变今年3月,Meta首次向开发者开放Quest3前置彩色透视摄像头的访问权限,允许应用在用户授权后调用摄像头进行图像捕捉或运行计算机视觉模型。4月起,该功能正式支持上架应用。但初期体验并不理想。以VR影像应用immerGallery为例,其开发者在使用该API拍摄3D照片与视频时,发现画面存在明显的像素化"涟漪"伪影,近距离观察尤为严重,几乎无法用于实际创作。然而,在v78版本更新后,情况彻底改变。开发者反馈:"画质提升非常明显。之前的画面瑕疵,我一度以为是系统硬伤。现在Meta修复了问题,清晰度显著提升,3D成像终于'能看了'。"Meta软件工程师RobertoCoviello也已确认此次优化。虽然官方未发布详细说明,但从实际效果看,图像处理管线、降噪算法与色彩还原均得到加强,使透视画面更接近真实世界。Quest3=入门级3D相机?一场"意外"的硬件再定义这一改进,让Quest3具备了原生3D影像采集能力--它拥有双前置彩色摄像头,具备空间定位与深度感知,现在又有足够清晰的画面输出,完全可作为一台"附带VR功能的3D相机"使用。虽然开发者仍建议专业用户选择专用设备(如XRealBeamPro或佳能"空间镜头"套装),但对普通用户而言:无需额外购买设备:你已拥有一台支持3D拍摄的"相机";拍摄即沉浸:拍完可直接在VR中回放,感受空间感与临场感;创作门槛骤降:通过immerGallery等应用,普通用户也能轻松尝试3D内容创作。这标志着Quest3从"纯VR设备"向"空间计算终端"的进一步演进--它不仅能"显示"虚拟内容,也开始能"记录"真实世界的三维信息。追赶VisionPro与Pico4Ultra:Meta的"系统级功能"前奏?值得注意的是,AppleVisionPro和Pico4Ultra早已支持系统级3D照片与视频拍摄功能。Meta此前一直缺席,被视作一大短板。v78的优化,极可能是Meta为未来推出原生3D捕捉功能所做的铺垫。一旦API稳定、画质达标,将"3D拍照"按钮直接集成到系统相机应用中,只是时间问题。这不仅是功能补齐,更是生态战略:鼓励用户用Quest3记录"生活片段",在Horizon世界中分享;为AI训练提供真实空间数据;为未来"数字孪生"、"虚拟社交"积累内容资产。
"越狱"之门短暂开启,Meta迅速封禁近日,Meta将一款名为VRAndroidFileManager的应用从其HorizonStore中下架。这款应用由知名开发者(同时也是热门工具"Quest游戏优化器"作者)打造,上线仅一个月,却因其"越界"功能引发平台封禁。核心原因在于:该应用允许用户直接在Quest头显上安装APK文件--即无需连接PC、无需开启开发者模式,即可实现第三方应用的侧载(sideloading)。这在Meta严格管控的生态系统中,堪称一次"破壁"。为何这款文件管理器如此特殊?长期以来,Quest用户若想安装非官方应用,通常需通过USB连接电脑,使用ADB命令进行侧载。尽管社区已有可侧载的文件管理器,但VRAndroidFileManager是首个直接上架HorizonStore的同类工具。这意味着:用户无需PC即可完成整个流程;甚至无需开启"开发者模式";安装体验接近普通Android手机。这一突破,让超过5万名用户首次体验到"真正的Android自由"--毕竟,HorizonOS本质上是基于Android系统构建的。Meta的回应:平台完整性高于用户自由Meta在给开发者的通知中明确表示:"我们认定该应用支持其他应用的安装",因此为"保障平台完整性",要求开发者移除APK安装功能后重新提交。这一决定并不意外。今年6月,另一款类似工具MobileVRStation也曾遭下架。Meta显然不希望其封闭生态被轻易打破。开发者的怒斥:我们不是要破坏,而是要补救该应用开发者在X平台公开发声,批评Meta的"封闭系统":"5万多名用户享受到了在任何Android设备上都能实现的自由--而Meta的锁死系统却剥夺了这一点。关注太多,反而让它夭折。Meta不在乎用户或开发者,只在乎控制。"他进一步指出:"当开发者在修补Meta系统的缺陷时,Meta的回应却是封杀。一个稳健的操作系统和良好的用户体验,永远不在Meta的路线图上。它的系统落后多年,甚至连像样的文件管理器都没有。"开发者强调,开放APK安装本应是Android设备的基本能力,Meta若能主动开放,将激发庞大的应用生态潜力,而非迫使用户依赖"灰色工具"。对比行业:Pico开放,VisionPro封闭不同厂商在生态策略上差异显著:Pico(字节跳动旗下):内置文件管理器即支持APK安装,侧载门槛极低;AppleVisionPro:完全禁止应用侧载,生态最为封闭;MetaQuest:介于两者之间,允许侧载但流程复杂,且严禁商店内应用提供安装功能。VRAndroidFileManager的短暂存在,暴露了Meta策略的矛盾:既想维持控制权,又无法提供完善的官方功能,最终导致社区"自救"行为频发。背后是生态控制权的争夺Meta的担忧不难理解:开放APK安装可能带来安全风险、版权问题、低质量应用泛滥,影响用户体验与品牌声誉。但从用户视角看,一台售价数百美元的设备,若连基本的文件管理和应用自由都无法实现,其"智能"属性大打折扣。更讽刺的是,Meta自己也在后台为用户自动下载和更新APK--只是不允许用户"自己动手"。结语:自由与安全的平衡难题此次下架事件,再次凸显了平台控制与用户自由之间的深层矛盾。Meta或许成功守住了生态边界,但也进一步疏远了技术爱好者群体。正如开发者所言:"任何Android设备都可以原生安装APK。Meta若能开放,将释放巨大市场潜力。"问题是,Meta真的愿意放手吗?
史上最强Meta眼镜登场:终于有"屏"了Meta即将推出其迄今为止最雄心勃勃的智能眼镜--Hypernova。这款定于9月17日在MetaConnect大会上正式发布的设备,最核心的突破在于:首次搭载了真正的显示系统。与目前热销但仅依赖音频反馈的Ray-BanMeta系列不同,Hypernova在右镜片下方嵌入了一块微型显示屏,可直接向用户呈现通知、导航、照片以及与MetaAI助手的交互内容。这意味着,用户终于能在视野中"看见"信息,而不再需要"听"信息。这一变化,标志着Meta从"智能音频眼镜"正式迈入"视觉增强型可穿戴设备"的新阶段。手腕控制、定制系统:交互方式全面革新Hypernova的交互方式也迎来重大升级。它将配备一条神经腕带(neuralwristband),通过读取用户前臂的肌肉微动,实现对界面的精准控制。用户只需做出轻微的捏合、滑动等手势,即可完成操作,无需在公共场合大声说话或频繁抬手。设备运行定制版Android系统,并通过Meta的View应用与智能手机连接,支持通话、音乐播放、消息提醒等基础功能。相比Ray-BanMeta的封闭式体验,Hypernova更像一个可扩展的轻量级计算平台。800美元定价策略:牺牲利润,换取市场Hypernova的售价定为800美元,虽远高于Ray-BanMeta的299-380美元区间,但相比此前市场预测的1000-1400美元已大幅下调。Meta选择主动压缩利润空间,以降低用户门槛,加速市场渗透。这一策略表明,Meta不仅瞄准消费者市场,更意图在企业级AR应用领域抢占先机。当前,智能眼镜已在多个行业验证其价值:亚马逊在仓库中使用Vuzix眼镜,实现远程专家"第一视角"设备诊断;宝马慕尼黑工厂工人佩戴智能眼镜后,库存识别速度提升22%,错误率下降33%;DHL等物流企业部署"视觉拣选"系统,结合语音与条码扫描,显著提升作业效率。IDC可穿戴设备负责人FrederickStanbrell指出:"我们可能正见证扎克伯格设想中'取代手机'的第一代设备。"消费者功能亮眼,但企业才是"现金牛"对普通用户而言,Hypernova的吸引力在于"无感交互":走路时查看导航、无需掏手机读消息、用更高质量的摄像头拍照(Meta称其成像能力可媲美iPhone13)。但真正能支撑其高定价的,是企业市场的效率红利。Vuzix目前已在全球部署超500个工业项目,涵盖维修、巡检、物流等场景。工人通常在10-15分钟内即可上手,并可全天舒适佩戴。不过,市场挑战依然存在:数据安全是企业部署的最大顾虑,如何限制摄像头权限、保护客户隐私,仍需严格策略。此外,当前设备尚缺乏真正的空间感知与视觉识别能力,而这正是MetaAI可能补足的关键拼图。2025年市场爆发,Hypernova是试金石全球智能眼镜市场去年规模近20亿美元,预计2030年将达80亿美元。2025年上半年,出货量同比激增110%,Meta占据超75%市场份额,已成行业主导者。VDCResearch副总裁DavidKrebs评价:"行业兴趣浓厚,实验广泛,但技术、用户习惯和应用场景仍有诸多未解之题。"Hypernova的成败,将直接决定Meta能否将智能眼镜从"新奇配件"转变为"生产力工具"。公司已在研发双镜片显示的第二代产品,目标2027年推出。但眼下,它必须先说服用户:愿意为眼前漂浮的数据,支付800美元的溢价。核心升级对比(Hypernovavs.Ray-BanMeta):显示系统:集成微型显示屏vs.仅音频反馈交互方式:神经腕带手势控制vs.触控/语音操作系统:定制Android+应用生态vs.封闭系统摄像头:升级影像系统,对标iPhone13价格:800美元vs.299-380美元
就在两个月前,Meta旗下工作室TwistedPixelGames与漫威游戏联合推出的《死侍VR》首次亮相,迅速成为Quest3与Quest3S平台最受期待的独占大作。如今,这款备受瞩目的VR游戏终于敲定上线日期:2025年11月18日,售价定为50美元,届时将在HorizonStore正式发售。值得注意的是,此次VR版《死侍》的配音并非由电影版的"小贱贱"瑞安·雷诺兹担任,而是由尼尔·帕特里克·哈里斯(NeilPatrickHarris)献声。这一选角变动虽出人意料,却也为角色注入了新的演绎维度。接下反派的"工作":一场横跨宇宙的绑架秀在最新发布的故事预告片中,玩家将接受来自超级反派"摩艾"(Mojo)的委托。这位由约翰·雷吉扎莫(JohnLeguizamo)配音的银河级媒体操控者,正为他的星际流媒体平台招募"人才"。而你的任务,正是前往漫威宇宙各处,绑架一众标志性反派--包括梅菲斯特(Mephisto)、钢力士(LadyDeathstrike)、欧米茄红(OmegaRed)以及终极机器人(Ultimo)。这不仅是一场暴力征募,更是一场充满讽刺与荒诞的"真人秀"式叙事。Meta表示,游戏将"融合跑酷与高度自由的战斗系统,让玩家在砍杀、射击与黑客攻击中尽情发挥创意"。"摩艾化"装备登场,战斗即舞台当玩家在战斗中积攒"死侍特殊计量条"后,将解锁一系列"魔力版"的经典漫威装备。比如"魔力尼尔之锤",以及名为"魔力卡牌"的新型武器--投掷后会爆炸,极具视觉冲击力。更令人兴奋的是,使用这些"魔力卡牌"武器将触发数十首授权歌曲的播放。Meta透露,这些歌曲的具体曲目将在后续公布,无疑为游戏增添了更多音乐与战斗融合的沉浸体验。早在今年6月,我们曾试玩了《死侍VR》的Demo版本,亲身体验了其流畅的战斗节奏与角色魅力。如今随着发售日临近,这款集动作、幽默与Meta顶级VR技术于一身的作品,或将重新定义超级英雄在虚拟现实中的表现方式。
在苹果VisionPro发布后不久,Meta于2023年MetaConnect大会上推出了Quest3,并由CEO马克·扎克伯格亲自宣布:2024年,这款头显将获得一项名为"Augments"(增强层)的重磅功能。然而,一年过去,这项被寄予厚望的功能却迟迟未上线。如今,Meta首席技术官安德鲁·博斯沃思(AndrewBosworth)在一次Instagram的问答(AMA)活动中首次公开回应进展--Augments并未取消,而是已被"从零重建"。曾经的愿景:空间中的"持久数字物件"根据扎克伯格当时的描述,Augments是指持久存在于物理空间中的数字对象,它们可以像真实物品一样固定在墙上、桌面或房间角落,并持续运行。演示画面中,用户可以在家中同时看到:一个悬浮的时钟一个可控制的音乐播放器通往游戏世界的"传送门"窗口更令人兴奋的是,2024年初泄露的视频显示,Augments甚至具备交互能力:比如一个可玩的迷你弹球游戏、一个可拖拽的日历应用,以及一株需要"浇水"的虚拟植物宠物。这本将是MetaHorizonOS迈向真正"空间计算"的关键一步--让混合现实应用像手机App一样多任务并行、持久存在。为何"推倒重来"?性能与架构的双重困境然而,博斯沃思坦言:"当我们最终拿到原型时,发现它不够好。"他透露,最初的Augments系统存在"巨大的性能权衡",无论是响应速度、资源占用还是稳定性,都无法达到Meta的标准。更根本的问题在于--整个系统架构是错误的。"我们意识到,支撑这些功能的底层架构本身就有问题。那是一个相当大的失误,而且是公开的。我一直对此很坦诚。"而问题的根源,可能就藏在那些泄露视频中:最初的Augments是基于Meta已废弃的SparkStudio平台开发的。SparkStudio曾是Meta用于创建Instagram/FacebookAR滤镜的工具,基于JavaScript和轻量级3D引擎。虽然适合移动端AR特效,但要支撑Quest3上高性能、低延迟的独立式混合现实多任务体验,显然力不从心。这也解释了为何Meta在2024年初正式关闭SparkStudio--为的是彻底转向更适合空间计算的技术栈。从"画饼"到"重建":一场迟来的技术赎罪博斯沃思承认:"在舞台上宣布了某个功能,最后却没能交付,这让人非常难受。我们大部分时候都避免这样做。但比这更糟的,是推出一个你自己都知道不够好、存在严重妥协的产品。"因此,Meta选择"回到绘图板",从底层操作系统层面重新设计整个Augments架构。这一过程耗时数年,至今仍未完成。尽管他未透露具体上线时间,但明确表示:"它没有被取消。"这一表态已让无数Quest用户松了一口气。2025年9月17日:关键窗口期临近随着MetaConnect2025大会定档2025年9月17日(距今不足一个月),外界普遍猜测,这将是Meta揭晓Augments最终形态的最佳时机。届时,我们或许将看到:全新的系统级多任务框架支持第三方开发者构建持久化空间应用更流畅的passthrough混合现实体验与AI助手深度集成的智能增强层如果成功落地,Augments将不再是"未完成的承诺",而是真正让Quest3与苹果VisionPro的"SharedSpace"正面抗衡的空间操作系统核心功能。结语:慢下来,是为了走更远在科技行业,跳票并不少见。但像Meta这样,公开承认失败、主动推倒重来,反而体现了一种罕见的技术诚实。Augments的延迟,或许正是Meta在"快速迭代"与"长期体验"之间做出的艰难选择。而这一次,他们宁愿慢一点,也要把基础打牢。毕竟,在通往"元宇宙"的路上,一个稳定、高效、开放的空间操作系统,比任何一场发布会的掌声都更重要。