• 产业资讯

  • 樱花互联网联手STYLY合作打造智能眼镜“物理 AI”平台

    2025-10-10

    2025年10月10日,日本知名云计算服务商樱花互联网(SakuraInternet)与XR技术企业STYLY宣布达成战略合作,双方签署基本协议,将围绕"物理AI"(PhysicalAI)领域展开深度协同。合作目标是融合高性能云计算与扩展现实技术,打造面向智能眼镜的下一代AI交互基础设施。当前,智能眼镜正逐步从概念走向实用,成为AI落地的重要终端形态。物理AI作为连接数字智能与现实世界的桥梁,通过传感器、XR设备与人工智能的融合,使AI能够理解真实空间中的环境与人类行为。而智能眼镜作为贴身终端,具备持续感知、低干扰交互的优势,被视为继手机之后的下一代人机接口。安全可信云底座:数据本地化处理成关键优势樱花互联网以稳定、安全的IDC服务起家,近年来积极布局AI算力市场,推出"高火力"与"SakuraAI"等面向生成式AI的云服务平台。其核心竞争力在于所有数据中心均部署于日本境内,实现数据全程境内流转,满足金融、制造、科研等领域对数据主权与合规性的高要求。在此次合作中,樱花互联网将提供高性能、低延迟的云基础设施,确保由智能眼镜采集的空间数据、视觉信息与用户行为在本地完成处理,避免敏感数据跨境传输。这一"本地化处理"模式,为高安全等级场景下的AI应用提供了可靠支撑,也为未来中国等市场对数据治理日益严格的环境下提供了可借鉴的技术路径。XR平台赋能空间交互:重构人与信息的连接方式STYLY是日本领先的AR/XR内容与平台服务商,其自研的"STYLY"平台支持跨终端的沉浸式内容快速搭建,广泛应用于品牌营销、展览展示、文娱演出等领域。公司拥有扎实的空间计算能力与XR交互设计经验,擅长将数字内容自然融入现实空间。在合作中,STYLY将负责XR界面开发、空间交互逻辑设计及内容生态运营。通过其平台能力,实现AI智能体在三维空间中的可视化呈现与自然交互。例如,在工业巡检中,维修人员通过眼镜即可看到设备运行状态、故障提示与AI操作建议,大幅提升作业效率。聚焦智能眼镜:探索多行业落地场景双方计划联合研发专为智能眼镜优化的AI解决方案,重点推进以下方向:AI智能体应用:开发具备环境感知与任务执行能力的虚拟助手;空间UI/UX创新:基于空间计算重构交互范式,提升操作直觉性;跨行业场景拓展:覆盖教育、零售、文旅、制造等多个领域。例如,在零售门店,店员佩戴智能眼镜可实时获取顾客画像与AI推荐话术;在教育培训中,教师可通过AR界面动态展示三维模型,增强教学沉浸感。随着AI向物理世界延伸,云计算、空间计算与终端设备的协同正成为技术落地的关键。此次樱花互联网与STYLY的合作,不仅展现了日本在XR与边缘AI领域的布局,也为中国企业在构建安全、高效、沉浸式人机交互体系方面提供了有价值的参考。

  • 功耗仅449µW!超低功耗指环鼠标突破AR输入瓶颈

    2025-10-10

    东京大学研究团队近日开发出一款超低功耗的戒指型无线鼠标「picoRingmouse」。这款小巧的设备佩戴于手指上,通过感知手指动作,可用于操作VR头显构建的虚拟空间或AR眼镜。传统的戒指型输入设备因体积限制,仅能搭载小型电池,往往数小时便电量耗尽。尤其是采用BLE(低功耗蓝牙)通信时,连续传输存在瓶颈,难以支持长时间使用,成为制约其普及的关键问题。一月续航的秘密:µW级无线通信首次应用于指环设备相比之下,picoRingmouse在一次充电后可连续运行超过一个月。其核心突破在于,设备在戒指与腕带之间引入了一种全新的超低功耗无线通信方式,将通信模块的功耗降至传统方案的约2%,成功克服了BLE的技术局限。该技术借鉴了利用磁场的"背向散射通信(backscattercommunication)"原理,首次在全球范围内将µW(微瓦)级别的无线通信技术应用于戒指型设备。其最大功耗仅为449µW,极低的能耗使其成为真正具备实用价值的超低功耗输入设备。相较于传统的磁感应背向散射通信,picoRingmouse的通信距离延长了约一倍,即便在低输出功率下,也能有效抵抗外部噪声干扰,实现稳定可靠的性能。隐蔽操控,自然交互:AR眼镜的理想搭档这款戒指型鼠标可与AR眼镜及腕带设备组合使用。无论是在公共交通工具上还是户外环境,用户都能在不引人注目的情况下,自然地操控虚拟界面。其轻量化且隐蔽的设计,非常适合长时间佩戴和日常使用。目前,XR眼镜类设备的操作方式尚未形成统一标准,行业仍处于探索阶段。2025年9月底发布的AI眼镜MetaRay-banDisplay,便采用了眼镜与腕带控制器组合的方案。正如本次研究成果所展示的,更小巧的戒指型控制器,正成为下一代人机交互的重要候选方案之一。

  • 三星与谷歌联手,计划明年推出HUD智能眼镜挑战Meta

    2025-10-09

    据韩国《金融新闻》(TheFinancialNews)报道,三星与谷歌正计划于明年联合推出搭载单目抬头显示(HUD)的智能眼镜,直接对标Meta与雷朋(Ray-Ban)合作的智能眼镜系列。这一消息标志着两家科技巨头在可穿戴设备领域进一步深化合作,意图在快速增长的智能眼镜市场中抢占先机。从概念展示到产品落地今年早些时候,谷歌在TED2025和I/O2025大会上公开展示了一款搭载单目HUD的"参考设计"(referencedesign)智能眼镜,该设备由三星负责硬件设计。尽管当时双方并未宣布具体产品计划,但此次报道确认,这款概念产品将被正式商品化,并于2026年推向市场。这款即将推出的眼镜预计将具备实时信息叠加、语音交互与AI助手(如Gemini)集成等核心功能,用户可在视野中直接查看通知、导航、翻译等内容,实现更自然的交互体验。其目标明确指向Meta与雷朋联合推出的带显示屏版本--Ray-BanMetaDisplay。双线布局:高端带屏与平价无屏报道还指出,三星正在同步开发一款不带显示屏的低成本智能眼镜,旨在与Meta的基础款Ray-BanMeta眼镜竞争。这一双线策略表明,三星与谷歌意在覆盖更广泛的消费群体:高端产品主打增强现实(AR)信息交互,而平价型号则聚焦音频、健康监测与AI语音助手等基础功能。此外,谷歌此前已宣布与GentleMonster、WarbyParker等眼镜品牌合作开发Gemini智能眼镜,并将与KeringEyewear展开未来合作。值得注意的是,谷歌明确表示其合作产品的镜片显示功能将"可选",暗示多数初期产品仍将聚焦无屏体验,而三星-谷歌联合推出的HUD眼镜或将成为其首款真正意义上的AR显示设备。软硬协同:对抗Meta的生态组合拳此次合作延续了三星与谷歌在XR领域的战略分工:三星主导硬件设计与制造,谷歌提供基于AndroidXR的操作系统与AI服务。这种模式与双方正在联合开发的首款AndroidXR头显(传闻命名为GalaxyXR)一脉相承,预计该头显将于本月晚些时候发布。通过整合三星的硬件制造能力与谷歌的AI、地图、Assistant、Gemini等服务生态,双方试图构建一个完整的可穿戴设备体系。相较于Meta以社交和娱乐为核心的闭环生态,三星与谷歌的联盟更强调跨设备协同与开放性,或将成为挑战Meta在智能眼镜领域先发优势的关键力量。

  • 俄亥俄大学启动“数字企业协作实验室”:一周建成XR未来工厂,培养下一代数字工程师

    2025-10-07

    在先进制造业与数字工程加速融合的浪潮中,俄亥俄大学(OhioUniversity)正以一项开创性举措抢占先机。该校已正式推出"数字企业协作实验室"(DigitalEnterpriseCollaboratory,简称DEC),旨在构建一个集教育、应用研究与劳动力培训于一体的沉浸式生态系统,为学生、教师、政府机构与产业伙伴提供协同解决现实工程挑战的平台。一周建成的XR"未来工厂"DEC的核心是Virtualware公司的VIROOEnterpriseXR平台,结合HTCVIVE的硬件与服务,并在雅典(Athens)主校区与代顿(Dayton)的研究合作点设立专用实验室。最令人瞩目的是其部署速度:两个物理沉浸式实验室在不到一周的时间内完成安装并投入运行。"当Virtualware说我们能在一周内完成两个地点的部署时,我其实持怀疑态度,"俄亥俄大学拉塞尔工程与技术学院行业合作伙伴副教务长ScottMiller坦言,"但结果令人惊叹--我们迅速上线,师生和客户已开始在真实项目上使用。"这一惊人效率得益于VIROO平台预集成的软硬件堆栈与成熟的部署方法论。平台托管于亚马逊云服务(AWS),支持多用户XR会话,可通过VR头显、桌面端或大型沉浸式系统访问。其配套工具VIROOStudioforUnity更进一步,能将CAD与BIM模型转化为交互式数字孪生体和培训模拟器,使工程师在虚拟空间中实时协作,无论身处何地。效率跃升三至十倍:从设计到生产的革命俄亥俄大学估计,DEC可将工程模块与产品设计的开发周期缩短3到10倍。通过虚拟调试(virtualcommissioning)与多地点协同测试,分布式团队无需依赖昂贵且耗时的物理原型即可迭代验证设计,显著加速从概念到生产的流程。这对制造业意味着更快的上市时间;对学生而言,则是提前接触正在重塑全球工业的前沿数字工具。随着英特尔、本田-LG、Anduril、JobyAviation等企业在俄亥俄州投资数十亿美元建设新厂,未来五年预计将产生约2万名高技能人才需求。DEC正是该校应对这一挑战的核心战略,确保毕业生具备胜任"数字优先"工业岗位的能力。打造全球XR教育网络对Virtualware而言,与俄亥俄大学的合作进一步扩展了其在高等教育与劳动力发展领域的布局。目前,VIROO平台已应用于加拿大麦克马斯特大学、中佛罗里达大学,以及西班牙教育部的职业培训网络--后者计划在未来三个月内将现有25所校园的部署扩展至91所。尽管各机构实施方式不同,但共同目标明确:构建可扩展的企业级XR基础设施,连接学术界、产业界与政府。俄亥俄大学的DEC为这一全球网络注入了新的动力。不止是技术升级,更是经济必需将VIROO等XR平台深度融入学术与产业生态,不仅降低了沉浸式技术的应用门槛,更直接回应了紧迫的劳动力需求。对俄亥俄州而言,制造业仍是最大产业,贡献全州17.5%的GDP。在此背景下,DEC这样的项目已超越单纯的技术升级,成为区域经济发展的战略必需。"通过DEC,我们正在培养下一代工程师以空间化思维、协作化行动,解决真实世界的问题,"Miller强调。这不仅是一句教育愿景,更是一场正在发生的工业教育革命。

  • 英国科技公司PAULEY与BAE Systems达成两年合作,共推AI+XR军事训练

    2025-10-02

    英国专注于国防及关联领域扩展现实(XR)解决方案的技术咨询公司PAULEY,本周宣布与全球防务巨头BAESystems签署为期两年的合作协议,旨在共同推进AI与XR技术在军事训练中的应用。根据协议,双方将携手把沉浸式技术整合进面向军事人员的训练项目中。合作目标包括:提升军方人员操作与维护多种军事装备的技能,涵盖前线战斗机与无人无人机(uncreweddrones);帮助部队为真实作战环境做好更充分准备;支持未来军事战略对高科技训练手段的需求。强强联合:技术专长与防务经验的融合PAULEY创始人兼首席执行官PhilipPauley表示:"我们很荣幸能与BAESystems合作,共同确保未来的军事力量能够应对日益复杂且快速变化的世界。英国《战略防务评估》等未来军事战略已将AI与XR技术置于核心地位。PAULEY的专业能力与BAESystems深厚的行业知识相结合,将充分释放这些前沿技术的潜力。"BAESystems空中部门培训主管LucyWalton补充道:"技术正以前所未有的速度发展。通过将BAESystems深厚的防务经验与PAULEY这类中小企业的敏捷性与创新能力相结合,我们能够为客户交付尖端的训练解决方案,同时助力英国本土产业的成长。"基于"奥德赛计划"的深化合作此次合作建立在双方此前的联合项目基础之上,特别是对BAESystems"ProjectOdySSEy"(奥德赛计划)的支持。该项目是一个合成训练环境(synthetictrainingenvironment),允许部队在虚拟世界中进行集体训练,并使用真实的任务软件与战术,实现高度逼真的作战模拟。此次为期两年的新协议,标志着双方在XR与AI军事应用领域的合作进入更系统化、长期化的阶段,有望为英国及全球防务训练带来新一代智能化、沉浸式解决方案。

  • 一家做喇叭的日本老厂,正联手法国公司重塑“触觉未来”

    2025-09-29

    当屏幕越来越薄、交互越来越无形,我们反而开始渴望一种更原始的反馈:能被皮肤感知的震动。这就是为什么,当你看到Razer(雷蛇)SensaHD触觉模块背后的法国公司Interhaptics,与日本音响巨头FosterElectric(フォスター電機)宣布合作时,不该只看到又一场技术联姻--而是一场关于"感官统一"的静默革命。两家公司没打算造噱头。他们的目标很明确:把声音和触觉彻底打通,让家电、汽车、游戏设备不再只是"听见"或"看见",而是让你用整个身体去感受。声音不是用来听的,是拿来"摸"的Foster的名字你可能不熟,但它为高端耳机、车载音响、专业监听设备供货几十年,是隐藏在无数顶级音频产品背后的"隐形冠军"。而Interhaptics,则是VR/AR领域最成熟的触觉引擎之一,其HDHaptics技术驱动着Razer等品牌的高精度震动反馈。这次合作的本质,是把声音的物理性重新挖回来。传统振动马达粗暴地"嗡嗡嗡",而Interhaptics的算法+Foster的精密致动器,可以让设备模拟出雨滴滑落、轮胎打滑、枪械后坐力甚至织物摩擦的细微差异。更重要的是,这些震动不再是孤立信号,而是与音频波形精准同步--声波即震波,听觉即触觉。想象一下:车载音响播放交响乐时,座椅随低音提琴共振;洗衣机完成洗涤,门框传来一段轻柔的"确认脉冲";游戏手柄在你扣动扳机瞬间,释放出一段有层次的反冲节奏--这不是炫技,而是人机交互正在向"全感官沉浸"进化。OEM的新武器:从"功能"到"感觉"对家电、汽车、消费电子的OEM厂商来说,这场合作提供了一个极具诱惑的选项:无需自研底层技术,即可集成高保真触觉系统。Interhaptics提供协议、API、固件,Foster供应定制化振动单元,组合成一套可快速部署的"触觉解决方案"。这意味着,哪怕是一家中小厂商,也能在产品中加入电影级的沉浸反馈,从而在红海市场中打出差异化。这背后,是硬件体验竞争已进入"微感时代"--用户不再满足于"有没有",而是敏感于"像不像""顺不顺""爽不爽"。"SoundtoLife":让技术长出温度Foster提出的愿景叫"SoundtoLife"--声音唤醒生命。听起来很玄,但恰恰点中了智能设备的痛点:我们造出了越来越聪明的机器,却也让交互变得越来越冰冷。而触觉,是最接近本能的桥梁。它不需要学习,不依赖视觉,甚至能在无声环境中传递信息。当声音与震动真正融合,设备就不再是工具,而更像是一个有呼吸、有反应的"存在"。Interhaptics与Foster的合作,或许不会立刻改变你手里的手机,但它正在为下一代交互范式铺路:未来的智能,不只是聪明,更要可感。

  • 印度押注560亿美元:要做元宇宙的“世界工厂”?

    2025-09-29

    2025年,印度马哈拉施特拉邦扔出一枚重磅炸弹:正式将AVGC-XR(动画、视觉特效、游戏、漫画与扩展现实)列为国家战略级产业。这不是一句口号。它被赋予三重身份:工业、基础设施、甚至"基本公共服务"--意味着这些公司可以合法地24小时运转,全年无休。背后是3268亿卢比(约36.7亿美元)真金白银的投入,以及一个更惊人的目标:撬动5万亿卢比(约560亿美元)社会资本,打造全球领先的沉浸式技术生态。这已经不是"扶持新兴产业"那么简单了。印度正在下一盘大棋:要做下一代数字体验的"基建提供者"。从"外包画师"到"元宇宙工头"过去二十年,印度一直是好莱坞VFX和日本动画背后的"隐形打工人"。如今,政策转向清晰:不再满足于接外包单,而是要建自己的园区、养自己的人才、做自己的IP。新规划的AVGC-XR园区,不是普通写字楼。它们是集高速网络、虚拟制片棚、渲染农场、AI动画平台于一体的科技枢纽。企业入驻后,无需自建昂贵基础设施,就能直接上手做元宇宙项目。这种"拎包入住"模式,大幅降低创业门槛,也加速规模化。更关键的是,把XR企业定义为"基本服务",等于给了它们能源、安保、审批上的优先权。在官僚体系复杂的印度,这项认定本身就是一种"超级特权"。20万高薪岗位,一场国家级技能再造钱和地只是骨架,人才才是血肉。马哈拉施特拉邦深知:没有足够多会做UE5、懂动作捕捉、能设计VR叙事的人,再宏大的蓝图也只是PPT。因此,政策核心之一是"技能前置"--成立由产业、学界、协会组成的技能委员会,由印度创意技术学院牵头,打通教育与就业的断层。目标很明确:未来20年,新增20万个高技术岗位。但这不只是"多开几个培训班"那么简单。它试图构建一个自我循环的生态系统:60%土地留给产业,其余用于住宅、学校、商业配套。人们可以在园区工作、在家门口培训、在社区生活--形成真正的"XR城邦"。全国铺开,野心不止于孟买目前试点在孟买、浦那、纳格浦尔等城市展开,但野心显然不止于此。随着AVGC-XR向医疗模拟、军事训练、智慧农业、房地产可视化等领域渗透,这套模式有望复制到全国。而更大的背景是:印度AVGC-XR产业规模正从今天的270亿美元,奔向2030年的1000亿美元。如果成功,印度将不再是数字内容的"劳动力输出国",而是规则制定者与平台建设者。真正的问题是:这次能行吗?当然,挑战并不少。基础设施落地效率、教育资源匹配度、中小企业能否真正受益,都是未知数。更别提那些漂浮在园区里的跨国广告牌,是否会让"本土创新"的叙事显得有些割裂。但这一次,印度的态度前所未有地坚决。它不再问"XR有没有未来",而是直接回答:"未来的基建,我要参与建造。"对于全球开发者、创作者、创业者来说,这意味着一个新的技术洼地正在形成--或许,下一个《堡垒之夜》级别的爆款,会诞生在班加罗尔的某个XR园区里。

  • 《枪手行动:独立》发布全新开发日志:深入“蜂巢”基地,展现硬核枪战系统

    2025-09-25

    在距离预计2025年登陆Steam抢先体验仅剩数月之际,备受期待的PCVR第一人称射击游戏《枪手行动:独立》(GunmanContracts–StandAlone)发布了最新开发日志,首次深入展示其核心枢纽--"枪手基地"(TheGunman'sBase),又名"蜂巢"(TheHive)。此次更新是继近一年前上一支开发视频后的重要进展,为玩家揭开了这款动作电影风格射击游戏背后的训练、准备与战斗系统。"蜂巢"基地:你的私人军火库与训练场"蜂巢"不仅是安全屋,更是一个功能齐全的地下作战中心,专为追求极致枪法的玩家打造:私人射击场:在隐蔽的地下设施中,自由试射你收集的所有武器。深度武器定制:从枪管、瞄具到握把,逐一改装你的主战装备,打造专属武器库。动态靶场挑战:新增移动靶课程,模拟实战环境。敌人模型会从不同角度突然出现,考验你的反应速度与精准度。每次训练结束后,系统将通过一个计分面板,综合评估你的命中率、完成时间与击杀总数,激励玩家不断突破自我。全息战斗竞技场:与AI猎手生死对决最令人振奋的是"战斗竞技场"(CombatArena)的亮相。在这里,玩家将面对由AI驱动的"全息特工"(holoagents),这些虚拟敌人不仅外观逼真,行为模式也高度拟真,会主动包抄、掩护、突袭,带来接近真实对抗的压迫感。这一模式不仅是高难度挑战,更是检验你在主线任务中所学技能的终极试炼场。从《半条命》Mod之王到独立开发者《枪手行动:独立》由知名VRMod作者ANB_Seth独自开发,其前作《GunmanContracts》系列是《半条命:爱莉克斯》(Half-Life:Alyx)最受欢迎、内容最丰富的Mod之一。此次在发行商2080Games(代表作《MiRaclePool》)的支持下,项目升级为完全独立的商业作品。根据Steam页面FAQ,游戏将经历约2-3年的抢先体验阶段,目标是在正式版中推出包含"约5-6个合约任务"的完整内容,而抢先体验初期将包含首个合约。2025年上线Steam,支持VR与平面模式《枪手行动:独立》计划于2025年以抢先体验形式登陆Steam,支持PCVR头显及传统平面显示器游玩。随着发布窗口临近,预计未来几个月将有更多内容陆续曝光。对于渴望在VR中体验好莱坞式枪战大片的玩家而言,《枪手行动:独立》正逐渐从Mod传奇,成长为一部值得期待的原创佳作。

  • Meta加速线下布局:洛杉矶“Meta Lab”旗舰店即将开幕

    2025-09-25

    继2022年在加州伯林盖姆(Burlingame)开设首家门店后,Meta正式宣布将扩大其线下零售版图。公司将于2025年10月24日在洛杉矶梅尔罗斯大道(MelroseAvenue)开设第二家永久性旗舰店--MetaLab,并同步在纽约和拉斯维加斯推出临时快闪店,全面展示其智能眼镜与VR硬件生态。洛杉矶旗舰店:2万平方英尺的"未来科技秀场"位于潮流地标梅尔罗斯大道的MetaLab洛杉矶店被Meta称为其"旗舰店"(flagshipretaillocation),占地高达20,000平方英尺,横跨多层空间,专为沉浸式体验而设计。店内将完整陈列Meta全线硬件产品,包括:智能眼镜系列:Ray-BanMetaGen2、OakleyMetaHSTN、OakleyMetaVanguard、Ray-BanMeta显示款(Ray-BanMetaDisplay)VR头显系列:Quest3、Quest3SMeta表示,空间设计"专门用于突出硬件的功能与优势",让用户能在真实场景中体验AR/VR技术如何融入日常生活。快闪店同步登场:覆盖纽约与拉斯维加斯除了永久门店,Meta还将在以下两地开设临时"快闪空间"(pop-upspaces),重点推广其智能眼镜:拉斯维加斯快闪店:位于永利酒店(Wynn)内,面积560平方英尺,10月16日开放。纽约第五大道快闪店:规模更大,达5000平方英尺,11月13日开业。限定款透明眼镜首发,数量有限为配合新店开业,Meta将在这四家线下门店(洛杉矶、伯林盖姆、纽约、拉斯维加斯)独家发售一款限量版透明款Ray-BanMetaGen2,搭配"棕金镜面"(brownmirrorgold)镜片。该款式设计时尚,极具未来感,但数量有限。Meta官方建议消费者在开业首日前往门店,以确保能够入手。"微型商店"计划曝光,或采用自动贩卖机形式Meta还透露,未来将推出一系列专注于智能眼镜的"微型商店"(micro-stores)。据推测,这些店铺可能类似于其在Connect2025大会上展示的硬件自动贩卖机。这一模式曾被Snap在近十年前尝试用于初代Spectacles眼镜销售,但当时未能成功。如今,随着AR眼镜市场逐渐成熟,Meta或将重新激活这一概念,实现更灵活、低成本的线下触达。

  • GoPro Max2发布:真8K对决Insta360与DJI,价格战再起

    2025-09-25

    在沉寂六年之后,运动相机巨头GoPro终于推出其360°全景相机升级款--GoProMax2。这款新品于9月30日正式上市,售价500美元,直接瞄准了来自Insta360X5(550美元)和DJIOsmo360(550美元)的激烈竞争,试图夺回在消费级360相机市场的领先地位。"真8K"vs"伪8K":GoPro的技术宣言六年前发布的初代GoProMax仅支持5.6K30fps录制,早已被Insta360和DJI的新品全面超越。此次Max2的最大亮点,是其宣称的"真8K"录制能力(8K30fps)。GoPro强调,当竞争对手宣传"8K"时,往往包含了双镜头之间重叠或无法使用的像素区域,而Max2则提供无裁剪、无虚标的"真实8K"分辨率,有效像素比竞品多出约20%。"Max2是市面上唯一一款真正实现8K360°视频捕捉的相机。"--GoPro官方声明此外,Max2在开启高级模式后,支持高达300Mbps的比特率,几乎是Insta360和DJI机型的两倍,意味着更丰富的画面细节和更少的压缩损失。核心配置与功能对比GoProMax2大疆Osmo360Insta360X5360°视频8K30帧/秒5.6K60帧/秒4K100帧/秒8K50帧/秒6K60帧/秒4K100帧/秒8K30帧/秒5.7K60帧/秒4K120帧/秒比特率300Mbps170Mbps180Mbps10位HDR✅✅❌360°照片2900万像素1.2亿像素7200万像素传感器尺寸1/2.3英寸1/1.1英寸1/1.28英寸光圈F1.8F1.9F2.0可更换镜片✅❌✅电池续航66分钟110分钟88分钟优势与妥协并存✅优势:价格优势:比两大对手便宜50美元。真实分辨率与高码率:追求极致画质的专业用户可能更青睐GoPro的数据诚意。可更换镜头:与X5看齐,损坏后无需返厂维修,用户可自行更换。⚠️妥协与短板:缺少8K50fps:DJIOsmo360已支持更高帧率,更适合流畅慢动作。传感器较小:尽管光圈为f/2.0(略大于竞品),但小尺寸传感器意味着弱光环境下表现可能落后。续航较短:8K录制仅约65分钟,比对手少20-25分钟。未来展望:8K60fps将是下一战场目前三款消费级360相机均未支持8K60fps--这是当前专业影视制作的标准。不过,行业预计这一规格将在2026年的新机型中实现,届时新一轮技术竞赛将再度拉开。

  • Meta发布会翻车实录:一场被“广播”和“休眠”击穿的技术真相

    2025-09-20

    翻车之后,CTO亲自拆解故障根源在2025年MetaConnect大会的主舞台上,两场关键智能眼镜功能的现场演示接连失败,让马克·扎克伯格罕见地陷入尴尬。当时他将问题归因于"会场Wi-Fi太差",但事后,Meta首席技术官安德鲁·博斯沃思(AndrewBosworth)在Instagram的AMA问答中,给出了更真实、也更技术性的解释。这不是简单的网络问题,而是两个独立系统缺陷,在高压环境下被意外触发的结果。LiveAI为何陷入"已混合原料"死循环?第一场故障出现在"LiveAI"功能的演示中。该功能允许用户与MetaAI进行持续对话,无需反复唤醒"HeyMeta",AI还能实时感知视野内容。现场,厨师JackMancuso在Meta园区厨房启动功能后,AI准确识别了酱油等食材。但当他询问如何制作韩式牛排酱时,AI却不断重复:"你已经混合了基础原料。"博斯沃思解释,真正原因是:声音广播引发全楼设备误触发。Mancuso说"HeyMeta,startLiveAI"时,声音通过会场扬声器播放;导致建筑内所有Ray-BanMeta眼镜同时启动LiveAI;为保障演示稳定,Meta将园区LiveAI流量集中导流至一台开发服务器;成百上千并发请求瞬间压垮服务器,导致响应异常。至于为何AI反复声称"已混合原料",博斯沃思未作说明。合理推测是:服务器崩溃后返回了缓存中的排练数据;另一种可能是,Meta在演示中预设了部分流程,系统故障后暴露了"半真半假"的底层逻辑。更值得警惕的是:MetaAI至今不支持声纹识别。而Siri、Alexa、GoogleAssistant早已实现语音身份认证,防止误操作或隐私泄露。视频通话失败:一个"休眠"引发的系统死锁第二场故障发生在扎克伯格亲自演示MetaRay-BanDisplay眼镜接听WhatsApp视频来电时。理论上,他应能语音或手势接通,画面直接显示在镜片上。多家媒体(如TheVerge)实测确认功能可用,但现场却连续四次失败。博斯沃思透露,根本原因是一个极小概率的"竞态条件"(racecondition):来电通知到达的瞬间,眼镜显示屏恰好进入休眠状态;系统未能正确处理通知与唤醒的时序冲突,导致来电被阻塞;更严重的是,该错误使系统进入异常状态,后续所有呼叫均无法接入。他坦言:"这种bug出现在这种场合,真是糟糕透顶。"尽管团队已测试上百次,此前从未复现。如今漏洞已被修复。正常视频通话时为什么坚持高风险的"真演示"?尽管翻车,博斯沃思仍为"真实演示"辩护。他在AMA中表示:"我不明白人们觉得风险在哪……去看看媒体评测吧,如果产品不好用,他们根本不会写好评。他们试了,也说了:这东西是真的,能用。观众都懂--没人日常处在2500个无线设备同时干扰的环境里。"这代表了一种与苹果"精心编排式发布"截然不同的产品哲学:宁可暴露瑕疵,也要展示真实能力。业内反应两极:有人嘲讽,也有人认为这种"不完美"反而增强了可信度--毕竟,预发布阶段的演示本就充满不确定性。用户可亲自验证,产品才是最终裁判从9月30日起,MetaRay-BanDisplay眼镜已在BestBuy、LensCrafters和Ray-Ban门店开放体验。这意味着,消费者不再需要依赖发布会表现,而是可以亲自验证功能是否流畅。演示可以翻车,但产品必须经得起真实世界的考验。对Meta而言,真正的挑战,才刚刚开始。

  • Meta Horizon Studio 即将发布:AI 几分钟生成完整 VR 世界

    2025-09-19

    Meta正在彻底重塑其VR内容创作生态。其桌面端创作工具HorizonWorldsDesktopEditor将正式更名为MetaHorizonStudio,并迎来一项革命性升级:一个全新进化的AI助手,将能够从零生成世界、资产与玩法机制,把VR世界的创建时间从数小时压缩至几分钟。从"编辑器"到"生成器":HorizonStudio的AI进化自今年2月以"HorizonWorldsDesktopEditor"之名进入早期测试以来,这款Windows平台的平面创作工具便肩负着接替旧版VR内建创作工具的使命。它支持导入3D模型、图像、音频,并允许开发者使用TypeScript编写交互逻辑,构建出可在HorizonWorlds中实时多人游玩的虚拟空间。在过去一年中,Meta持续为该编辑器注入AI生产力,现已支持在美国、英国、加拿大、欧盟、澳大利亚、新西兰等地区AI生成:3D网格(meshes)材质纹理(textures)天空盒(skyboxes)音效与环境音(soundeffects,ambientaudio)TypeScript代码整体岛屿/地形(islands)创作者助手(CreatorAssistant)的局限与突破去年,Meta推出了CreatorAssistant--一个能执行开发任务的AI代理。例如,你只需说:"做一个按钮按下后门就打开的机关",它就能:从资源库中找到门和按钮;将其放置在场景中;设置属性;编写并绑定TypeScript代码。但有一个关键限制:它无法生成新资产,只能调用现有资源库中的内容。这一瓶颈将在新版HorizonStudio的升级版AI助手中被打破。全新AI助手:从"拼装"到"创造"Meta宣布,升级后的AI助手将具备端到端的生成能力,能够:AI生成整个VR世界:根据一句话描述(如"一个赛博朋克风格的未来城市,夜晚下雨,有霓虹灯和飞行汽车"),自动生成完整场景;按需生成特定资产:如"一只会发光的机械狐狸"或"一座中世纪石桥";实现指定玩法机制:如"设计一个解谜游戏,玩家需按顺序踩踏地板上的符文才能开门";创建自定义NPC:不再是基于标准MetaAvatar的简单角色,而是完全由AI生成外观与行为的非玩家角色。更进一步,这些NPC将支持:自然语言对话(与用户语音交互);世界背景理解(创作者可设定其知识库);动态事件感知(能感知当前游戏状态,如"宝藏已被取走")。这意味着,你未来可能只需说:"帮我做一个奇幻冒险世界,有会说话的龙和隐藏宝藏",AI就能为你生成一个可玩、可交互、可多人进入的完整VR体验。新引擎加持:HorizonEngine带来性能飞跃所有在HorizonStudio中创建的世界,将运行于全新的HorizonEngine,取代此前基于Unity的运行时系统。Meta表示,新引擎带来显著提升:加载速度提升4倍;单实例支持超过100名用户同时在线;更高效的资源管理与网络同步。这为大规模社交活动、虚拟演出和复杂游戏逻辑提供了坚实基础。尚无发布时间,但潜力无限目前,Meta尚未公布HorizonStudio及其增强AI助手的具体上线时间。但如果最终实现效果如其所述,这将彻底降低VR内容创作的门槛。过去需要数小时建模、编程、调试的工作,未来可能只需几分钟的自然语言指令即可完成。独立创作者、教育者、小型团队将获得前所未有的生产力工具,真正实现"人人都是元宇宙建筑师"。结语:AI正在重新定义"创作"从Photoshop的GenerativeFill到Unity的Sentis,AI正在渗透内容创作的每一个环节。而MetaHorizonStudio的升级,标志着AI驱动的VR世界生成已从概念走向现实。当"想象"与"实现"之间的距离被压缩到几分钟,元宇宙的爆发式增长,或许只差一个"生成"按钮。

  • Discord 确认2026年登陆Quest:以原生应用形式入驻 Horizon OS

    2025-09-19

    在今日的MetaConnect2025开发者主题演讲中,Meta负责元宇宙内容的副总裁SamanthaRyan宣布了一项备受期待的消息:全球最受欢迎的社群与语音通信平台Discord将于2026年正式登陆MetaQuest的HorizonOS,并以"原生应用"(nativeapp)的形式推出。原生应用意味着什么?Ryan特别强调了"nativeapp"这一表述,这与当前部分应用以网页容器(webappcontainer)运行的方式形成鲜明对比。这意味着:Discord将获得更深层次的系统集成;运行更流畅,启动更快,资源调度更高效;更重要的是,它将能够调用HorizonOS的专属功能,实现更沉浸的VR通信体验。作为对比,Spotify目前在Quest上仍以网页版形式运行,功能和体验受限;而Zoom、WhatsApp、Messenger和Instagram则已作为原生应用存在。Discord的加入,使其成为第五个登陆Quest的主流通信平台。可期待的功能:第一人称视角+Meta虚拟形象自去年以来,HorizonOS已陆续为通信应用引入两项关键功能,Discord作为原生应用,极有可能全面支持:第一人称视角共享(First-PersonViewSharing)类似于手机的后置摄像头,用户可直接通过Quest头显的前置传感器,向Discord语音频道或私聊分享自己的真实世界视角。无论是展示游戏玩法、指导操作,还是"带朋友看"VR体验,都更加直观。以Meta虚拟形象出镜(MetaAvatarasSelfieCamera)用户无需开启摄像头,即可将自己的MetaAvatar作为虚拟形象出现在语音或视频通话中。在Discord的服务器语音频道或DirectMessage视频聊天中,你将能以完全虚拟的形态与朋友互动,保护隐私的同时增强沉浸感。未来,Discord甚至可能支持VR内嵌语音频道快捷加入、跨游戏状态同步(如"正在玩《Population:ONE》")等深度整合功能。对开发者与玩家的意义Discord在游戏玩家和VR社群中拥有近乎"基础设施"级别的地位。其原生登陆Quest,将极大简化VR用户的社交协作流程:玩家可直接从头显内加入服务器语音,无需再依赖手机或电脑;社群组织者能更高效地管理VR活动、赛事或虚拟聚会;开发者可通过Discord更紧密地连接用户,推动社区生态成长。结语:通信闭环再下一城从WhatsApp、Messenger到Zoom和Instagram,再到即将加入的Discord,Meta正在构建一个全方位、多场景的跨平台通信生态。Discord的原生入驻,不仅是对用户需求的回应,更是Meta推动"VR作为主要社交界面"战略的关键一步。当你可以戴着Quest,在虚拟酒吧里用Avatar和朋友开黑,同时通过Discord语音指挥团队拿下胜利--那一刻,元宇宙的"真实感"又近了一步。时间线预测:2026年初:Discord原生应用上线Quest商店(预计支持Quest2/3/3S)后续更新:或支持HorizonHome快捷入口、通知集成、Avatar跨平台同步等

  • Meta Connect 2025 前夜:智能眼镜与开放生态的双重变局

    2025-09-18

    距离MetaConnect2025正式开幕仅剩数小时,扎克伯格即将登台,揭晓这家全球XR领域最具影响力公司下一阶段的战略蓝图。作为年度科技盛会,这场发布会不仅关乎虚拟现实的演进,更可能重新定义人机交互的边界。今年的keynote时间安排略显特殊--将于太平洋时间下午5点(美东时间晚上8点)举行。届时,扎克伯格将亲自介绍Meta在混合现实(MR)、人工智能(AI)、元宇宙生态以及可穿戴设备领域的最新进展。这些关键词早已不再是概念堆砌,而是逐步走向产品化与用户落地的关键节点。智能眼镜矩阵或将亮相?来自合作方的"意外泄露"值得注意的是,本次发布会的一大潜在焦点或许是智能眼镜产品线的全面升级。就在昨日,Meta与光学巨头依视路·陆逊梯卡(EssilorLuxottica)的合作项目疑似提前曝光,一款搭载单目光学显示模组的新一代智能眼镜浮出水面。这一细节暗示,Meta或正试图在轻量化、日常佩戴场景中实现"视觉增强"的突破。若消息属实,这将是继Ray-BanMeta智能眼镜之后,双方合作的又一次深化。不同于主打音频与拍摄功能的初代产品,配备单目显示屏的型号意味着真正的"信息叠加"体验正在逼近消费级市场--尽管可能仍处于早期探索阶段。HorizonOS开放生态的后续回响回顾上一届Connect大会,Meta抛出了一个极具战略意义的决定:首次向第三方厂商开放HorizonOS操作系统,并推动联想、华硕等品牌推出基于该系统的Quest风格头显。此举标志着Meta从"硬件主导"转向"平台赋能"的关键一步。然而,这一开放策略的实际落地效果如何?开发者生态是否已形成良性循环?跨品牌设备的用户体验一致性又能否保障?这些问题至今仍未完全解答。因此,本届大会极有可能进一步披露HorizonOS的生态进展、技术标准更新,乃至对第三方合作伙伴的支持机制。游戏、社交与VR世界的持续构建当然,内容生态仍是维系用户留存的核心。我们有理由期待更多关于Quest平台新游戏、沉浸式体验的发布,以及其社交虚拟空间HorizonWorlds的功能迭代。无论是更具互动性的虚拟化身系统,还是更丰富的创作工具,都将直接影响普通用户对"元宇宙"概念的真实感知。尽管外界对"元宇宙"的热度有所降温,但Meta仍在持续投入。每一次Connect大会都像是一次阶段性答卷--不急于兑现全部承诺,却始终在推进技术与产品的渐进式演进。可以肯定的是,无论最终发布什么,MetaConnect从来不只是关于硬件参数的堆叠,而是一场关于未来计算平台的叙事延续。我们也将持续跟进发布会动态,第一时间带来深度解读与现场观察。

  • Looking Glass推HLD全息屏:让普通视频变成立体影像,无需眼镜也能看

    2025-09-17

    全息技术公司LookingGlass正式推出其革命性新品--HololuminescentDisplay(HLD,全息荧光显示),一种全新的显示类别,旨在将标准2D视频内容转化为逼真的3D全息影像,无需佩戴任何辅助设备。这项技术的发布,标志着裸眼3D显示从实验室走向商业落地的关键一步。与传统依赖视差屏障或旋转镜面的方案不同,HLD的核心目标是:让现有数字内容生态无缝接入立体视觉时代。不用3D软件,也能"长"出深度:HLD的颠覆性逻辑当前,广告主、品牌方和零售商在打造沉浸式线下体验时,常面临三大瓶颈:3D内容制作复杂,依赖专业建模与渲染管线VR/AR设备体验封闭,难以群体共享大型全息装置体积庞大,部署成本高LookingGlass的HLD直击这些痛点。其最大亮点在于:无需专用3D软件,标准视频即可呈现真实空间深度。这意味着,使用AdobePremiere、AfterEffects、Unity、UnrealEngine等常规工具制作的内容,经过简单适配后,就能在HLD上以立体形态呈现。品牌无需重建内容体系,即可实现视觉升级。技术揭秘:一块不到一英寸厚的"魔法玻璃"HLD的核心技术基于LookingGlass专利的混合光学架构:将全息体积层嵌入LCD或OLED面板的光学堆栈中,实现光场(LightField)重构。这种设计让显示设备厚度不足一英寸,支持最高4K分辨率,并可适配标准显示设备的外形尺寸,便于直接替换现有数字标牌。更关键的是,HLD无需眼动追踪、无需佩戴眼镜、不限观看角度与人数。无论是单人驻足,还是群体围观,所有观众都能同时看到具有真实纵深感的立体影像。商业场景:广告、零售与现场活动的视觉升维LookingGlassCEOShawnFrayne表示:"我们致力于让魔法般的全息影像无处不在。HLD专为广告、零售和现场环境设计,能瞬间抓住注意力。它建立在我们的光场技术之上,却能与标准视频、内容管理系统(CMS)和现有广告基础设施无缝协作。"想象以下场景:商场中,模特从屏幕中"跨步而出",展示新款服装;博物馆内,恐龙骨架在空中缓缓旋转,细节清晰可见;品牌发布会,产品悬浮于空中,360°无死角呈现。这些过去依赖复杂投影或AR头显的体验,如今只需一块HLD屏幕即可实现。值得一提的是,LookingGlass仍将继续提供其原有的光场显示器,面向需要深度交互、3D研发或工程评审的专业团队。HLD则聚焦于大众化、规模化商业部署,形成高低搭配的产品矩阵。上市信息:2025年Q4发售,16英寸起售$2000HLD将于2025年第四季度正式上市,首发型号为16英寸,起售价2000美元。后续还将推出27英寸与86英寸大屏版本,满足从橱窗展示到大型展厅的多样化需求。目前,公司已开放限时预购折扣,吸引早期采用者。

  • Snap OS 2.0发布:为2026消费级AR眼镜铺路,系统先行的野心浮现

    2025-09-16

    Snapchat母公司Snap正式推出SnapOS2.0,为其AR眼镜平台注入新活力。此次更新聚焦于优化第一方应用体验,包括浏览器、图库(Gallery)和Spotlight视频流功能,标志着该系统正从"开发者专用"向"消费者就绪"稳步迈进。如果你还不熟悉背景:当前的SnapSpectacles是专为开发者设计的AR眼镜,月租99美元(学生50美元),目标是让开发者提前构建应用生态,为Snap计划在2026年推出的消费级产品"Specs"打下基础。尽管硬件本身尚处原型阶段--46°对角视场角、接近AppleVisionPro的角分辨率、仅45分钟续航、重达226克(约是Ray-BanMeta眼镜的五倍)--但SnapCEOEvanSpiegel明确表示,未来的消费版将实现"更小的体积、更轻的重量、更强的功能",并兼容现有所有应用。因此,真正值得长期关注的,并非当前笨重的开发设备,而是其背后的操作系统:SnapOS。SnapOS:封闭中的高效生态SnapOS的架构在当前AR平台中独树一帜。虽然底层基于Android,但它不允许安装APK,开发者无法运行原生代码,也不能使用Unity等第三方引擎。取而代之的是名为"Lenses"(镜头)的沙盒化应用,全部通过Snap提供的LensStudio(支持Windows和macOS)进行开发。开发者使用JavaScript或TypeScript调用高层API,而系统则负责底层渲染与交互逻辑。这种设计思路与AppleVisionPro的visionOS"共享空间"有异曲同工之妙:应用启动近乎瞬时交互体验高度一致多用户共享场景轻松实现手机端Snap应用可作为"观众视角"实时观看Lens内容目前系统尚不支持多任务处理,但这更可能是当前硬件性能限制所致,而非系统设计缺陷。自去年SnapOS随最新版Spectacles发布以来,Snap持续为开发者扩展能力边界:2025年3月:新增GPS与指南针支持,可用于户外导航;检测用户是否手持手机;引入系统级浮动键盘,解决文本输入难题。2025年6月:集成AI功能套件,包括支持40多种语言的语音转文字、实时生成3D模型,并深度对接GoogleGemini与OpenAIChatGPT的多模态视觉能力。特别值得一提的是深度缓存(depthcaching)功能,允许开发者将AI返回的信息精准锚定在现实空间中,实现真正的"空间智能"。SnapOS2.0:从开发者工具到用户体验升级如果说此前的更新主要服务于开发者,那么SnapOS2.0则明显转向提升终端用户体验,为明年消费级产品发布预热。新增TravelMode:移动场景下的空间追踪SnapOS2.0引入TravelMode(旅行模式),使设备在飞机、火车甚至汽车等移动载具中也能保持稳定的空间定位。这一功能此前由AppleVisionPro率先实现,Meta与pico随后跟进。Snap的加入,意味着其空间算法已具备应对复杂动态环境的能力。全新浏览器:支持WebXR,打开跨平台大门Snap的浏览器经历全面重构,号称"更快、更强、更易用"。新功能包括:可自定义窗口宽高比支持小组件与书签关键升级:支持WebXR这意味着大量基于Web的AR体验可直接在Spectacles上运行。尽管受限于设备算力,目前仅适合轻量级AR应用,尚无法承载复杂沉浸式游戏,但已为内容生态扩展打开重要通道。Gallery图库与Spotlight视频:补齐内容闭环新推出的Gallery镜头允许用户查看通过Spectacles录制的内容,并直接分享至Snapchat。不过目前仍有限制:仅支持在Lens内录制的30秒片段不支持独立拍照或自由录像更令人意外的是,Gallery不会同步手机端的Snapchat图片与视频。对此Snap回应称:"这是个有趣的想法",暗示未来或有整合可能。另一个重要更新是引入Spotlight--Snapchat手机端的短视频功能(对标TikTok与InstagramReels)。由于当前Spectacles的视场角垂直高于水平,非常适合观看竖屏视频,成为其差异化优势之一。SynthRiders登陆:验证平台娱乐潜力除系统更新外,Snap宣布热门XR节奏游戏《SynthRiders》即将登陆其平台。作者在伦敦体验了该版本,虽不及Quest、PCVR或VisionPro上的完整体验,但已展现出开发者对Snap工具链的逐步掌握。值得一提的是,演示中虚拟物体能将光影投射到现实家具表面--这得益于SnapOS提供的连续场景网格(continuousscenemesh),让虚拟内容能自然融入真实环境,提升沉浸感。结语:系统先行,硬件待发SnapOS2.0的发布,清晰传递了一个信号:Snap并不急于让消费者立刻戴上AR眼镜,而是先确保当那一刻到来时,系统已准备好足够丰富的体验与生态。它选择了一条与Apple、Meta不同的路径:不依赖通用引擎,不开放原生开发,而是通过高度控制的Lenses生态,追求极致的启动速度、交互一致性与跨用户共享体验。这条路能否成功尚待观察,但在通往消费级AR的长跑中,Snap已经用操作系统,悄悄抢下了关键一棒。

  • 共 1366 条6/86<45678>

    VR52

    VR52网成立于2015年,平台提供VR头显、AR眼镜、配件外设、厂商、测评、行业资讯、游戏与应用、展会活动等。

    热门VR眼镜
    标签
    头显眼镜对比
    清除所有