苹果 AI 眼镜深度爆料汇总:重量低至 40g,2026 发布
今年 Vision Pro M5 发售的时候,大家的新鲜劲儿维持了多久?
无论实际体验如何,作为目前「空间计算」领域硬件性能断档领先的存在,Vision Pro 系列还是用两代硬件产品,成功完成了苹果在 XR 领域秀肌肉的任务。
Apple Vision Pro 是目前业内算力最强的 XR 设备|图片来源:Apple
但同时也留下了一个显而易见的遗憾:它太重了,重到无法成为我们日常生活的一部分。只要一说起苹果的穿戴设备,人们依然更愿意戴上 AirPods,而不是把一台 iPad 绑在脸上。
就在最近,有关苹果可穿戴设备「下一章」的消息陆陆续续传出。不同于 Vision Pro 的厚重,这款被外界称为Apple AI Glasses(或 Apple Glass)的新品,可能会彻底改变我们对「智能眼镜」的刻板印象。如果按照供应链和分析师的预测,我们最早可能在 2025 年底听到它的官方预告,并在 2026 年或 2027 年正式与大家见面。
近日,根据 9to5Mac 等多家外媒的报道,苹果内部代号为「Project Atlas」的项目已经悄然启动,这标志着苹果对智能眼镜赛道的探索已经从「构想」进入了「实证」阶段。
据知情人士透露,苹果此前开展了一项代号为「Atlas」的内部大规模用户研究,专门收集员工对现有智能眼镜(特别是 Meta Ray-Ban 系列)的反馈。这意味着苹果已经不再满足于实验室数据,而是开始真刀真枪地调研「如何让普通人愿意全天佩戴眼镜」这个问题。
这种内部调研在苹果的产品开发史上并不常见:通常,苹果只有在确认某个品类具有极高的战略价值,且竞争对手已经验证了部分市场需求时,才会进行如此显性的「竞品对标」测试。这说明了两件事:第一,苹果承认 Meta 在这一局上做对了某些事;第二,苹果准备用更优的体验来收割市场。
至于大家最关心的功能规格方面,根据9to5mac 与供应链的前期泄露来看,目前有一点是可以确定的:第一代 Apple AI Glasses,大概率要走「无屏幕」路线了。
也有一种消息来源认为,苹果正在研发两个版本(包含高端的 AR 显示版),但近期流出的消息更多指向这款轻量级产品。
无论如何,相比 Vision Pro 那堆料到极致的显示屏,Apple Glasses 选择砍掉屏幕、专注于 AI 和音频的策略,都相当让人浮想联翩。
核心交互:AI + Siri + 摄像头?
目前,有不少渠道的信源都预测,Apple Glasses 的核心将是AI + Siri + 摄像头的组合。它不会像科幻电影那样在眼前投射全息影像,而是更像一个「长了眼睛的 AirPods」。
这就不得不提 iPhone 上已经亮相的视觉智能功能。这颗在手机上通过「相机控制按钮」触发的 AI 侧键,极有可能是为眼镜做的技术预演。未来的场景是:你只需要看向一家餐厅,眼镜上的摄像头捕捉画面,耳边的 Siri 就会告诉你这家店的评分、菜单甚至是是否需要排队。
iPhone 上目前基于 ChatGPT 实现的视觉智能交互 |图片来源:Apple
这种「指哪打哪」的视觉交互,比拿出手机、解锁、打开 App、扫描要直觉得多。它解决的是目前 AI 硬件最大的痛点:情境感知。
与此同时,Apple Glasses 可能会引入更高级的定向扬声器系统,以补足在嘈杂户外环境中 Siri 交互的短板。现阶段关于音频的具体规格非常有限,有推测说苹果会采用类似 AirPods Pro 2 上的自适应音频技术,即在对话时自动降低环境音,在听音乐时提供空间音频。
但对于眼镜来说,漏音是最大的尴尬。苹果可能会利用其在声学算法上的积累(例如 HomePod 的波束成形技术),确保只有佩戴者能听到 Siri 的回复,而坐在你旁边的同事一无所知。
当然,考虑到眼镜镜腿空间的物理限制,Apple Glasses 塞入 M 系列芯片的可能性几乎为零,甚至 A 系列芯片的散热对于一副 40g 的眼镜来说也过于奢侈。因此,它大概率需要依赖 iPhone 进行算力通过,就像早期的 Apple Watch 那样。
轻盈重量是目前高端 AI 眼镜的共识之一|图片来源:Even Reality
这虽然牺牲了独立性,但换来的是极致的轻便和全天候的续航。对于用户来说,只要眼镜能撑过早 8 到晚 8,没人会在意算力是在眼镜上还是在口袋里的 iPhone 上。
如果说几年前做智能眼镜是「摸着石头过河」,那么现在苹果入场时,河里已经站着两个巨人:Meta 和 Google。
这两家的动作是如此重要,以至于在当下想要理解苹果 AI 眼镜,如果不分析这两家的动作,就无法理解 Apple Glasses 的定位。
在智能眼镜领域,Meta 无疑是目前最激进的玩家。扎克伯格押注的Meta Ray-Ban智能眼镜,已经成为了该品类第一个真正意义上的「爆款」,并且在 2025 也在激进地拓展产品版图。
在 Ray-Ban 系列的成功之上,Meta 也在 2025 迅速拓展产品阵容|图片来源:Meta
Meta Ray-Ban 的成功,在于它极度克制——它没有试图把手机塞进眼镜里,而是做好了一副「能拍照、能听歌、能问 AI」的墨镜。这种「AI 眼镜本身首先要是一款好看的眼镜」的产品思路,正是苹果目前正在借鉴的。
Meta 是目前业内毫无疑问最成熟的选手|图片来源:Meta
而在更遥远的未来,Meta 也计划最终将量产版的「Orion」的全息 AR 眼镜推向市场。Orion 被扎克伯格称为「世界上最先进的眼镜」,拥有真正的全息显示和神经肌电手环交互。然而,目前原型机阶段的 Orion 成本高达一万美元,更像是一个技术图腾,即使是 Meta 也不得不先发布大幅缩水版本的 Meta Ray-Ban Display 来稳定用户。
Meta Orion 原型机|图片来源:Meta
相比之下,苹果的策略也不得不更加务实一些:Apple AI Glasses 并不是要对标 Orion,而是要狙击 Meta Ray-Ban。苹果的算盘是:在 Orion 这种真正的 AR 眼镜成本降下来之前(可能还需要 5-10 年),用「AI 眼镜」先占领用户的心智和鼻梁。
另一边,Google 也没有闲着。虽然当年的 Google Glass 惨遭滑铁卢,但 Google 在今年的 I/O 大会上展示的Project Astra,再次证明了他们在多模态 AI 领域的实力。
Android XR 生态|图片来源:Google
Project Astra 演示了 AI 如何通过摄像头实时识别物体、回忆遗落物品的位置、甚至解决代码问题。这与苹果的 Visual Intelligence 异曲同工。
不同的是,Google 目前似乎更倾向于通过打造大一统的「Android XR」平台,拉拢三星、XREAL 等硬件厂商一起做眼镜,而不是自己死磕硬件。
Android XR 生态定位对标 visionOS,依靠大一统生态来覆盖所有硬件形态产品|图片来源:Google
苹果的优势在哪里?面对 Meta 的先发优势和 Google 的数据优势,苹果的护城河依然是生态整合。
当前 AI 眼镜产品形态,普遍选择在脸上戴摄像头,用户对隐私的敏感度极高。相比以广告为生的 Meta 和 Google,苹果「隐私至上」的品牌形象是让普通用户敢于佩戴摄像头的关键。
此外,生态联动体验也是苹果一贯以来常见的降维打击手段:想象一下,眼镜识别到的电话号码直接在 iPhone 上拨出,眼镜听到的会议纪要直接同步到 Mac 的备忘录,或者通过眼镜寻找丢失的 AirTag。这种无缝的连续性,是单一硬件厂商无法复制的。
如何让眼镜看起来「不蠢」?
Apple Glasses 在外形设计上也有一些更新,其中最主要的就是重量控制。根据彭博社 Mark Gurman 和 9to5Mac 的综合爆料,苹果的目标是将重量控制在普通眼镜的范围内(约 30g-50g)。
这是一个什么概念?普通的近视眼镜大约 20-30g,Meta Ray-Ban 约为 49g。
如果苹果能做到 40g 左右,用户几乎可以无感佩戴。也就是说,相比 Vision Pro 那 600 多克的重量,Apple Glasses 将会是一次「暴瘦」,这将直接决定它能否成为用户的全天候设备。
类似重量的产品目前市面上仍然较为少见|图片来源:Even Reality G2
此外,为了照顾庞大的近视群体,苹果据传正在与光学巨头(如蔡司,此前已有 Vision Pro 的合作基础)合作,开发可快速更换的磁吸或卡扣式处方镜片,确保这不只是科技发烧友的玩具,而是能真正替代你鼻梁上那副旧眼镜的工具。
苹果在 Vision Pro 上已经有与蔡司合作的经验|图片来源:极客公园
截至目前,我们能够获取的有关 Apple Glasses 的、具有参考价值的泄露信息虽然碎片化,但拼图正在迅速拼凑完整:如果参考苹果过往新品的开发周期,仅从目前这种「内部调研」的阶段来看,Apple Glasses 大概率是不会在 2025 年上半年发布的,更有可能的结果是2026 年甚至 2027 年才会和大家见面。
那么关于苹果 AI 眼镜,我们在 2026 年最有盼头的东西是什么呢?其实是iOS27/visionOS27 和 AI 版本的 Siri 完全体进化。硬件的发布往往滞后于软件的铺垫。除了继续沿用 visionOS 之外,明年 WWDC 上 Siri 的表现,将直接决定未来这副眼镜的智商上限。
毕竟,如果 Siri 还是那个只能定闹钟的语音助手,那么这副眼镜就真的只能是个「蓝牙耳机」了。
价格预测,499 更合适?
目前,业界普遍认为 Apple Glasses 的定价会远低于 Vision Pro,可能对标 Meta Ray-Ban 的 299 美元价位段,或者略高一些,卡在499 美元(约合人民币 3500 元)左右。
对于一款没有昂贵的 Micro-OLED 屏幕,成本主要集中在芯片、传感器和精密的 AI 眼镜形态产品来讲。这个价格虽然比普通眼镜贵,但已经属于「甜点级」定价。作为参考,竞争对手Meta Ray-Ban 的起售价为 299 美元(约合人民币 2100 元)
总之,相比 Vision Pro 那种「把电脑戴在头上」的激进,Apple AI Glasses 这个泄露方向才更像是一款库克时代的「One More Thing」——它不追求参数的暴力堆砌,而是试图通过 AI 润物细无声地融入生活。
Apple Vision Pro |图片来源:Apple
我们大概率要等到明年甚至后年,才能看到苹果再次重新定义一个品类。毕竟在这个智能手机硬件创新边际效应递减的时候,小型化的、基于视觉大模型的随身 AI 设备依然有着无限的潜力。
当 Meta 在展示未来的全息梦,Google 在构建通用的 AI 大脑时,苹果似乎选择了一条最务实的路:先做一副你能戴得出去的眼镜,再给它装上智慧。
而这,或许才是取代 iPhone 的第一步。
本文来自微信公众号“极客公园”(ID:geekpark),作者:张勇毅,编辑:靖宇,36氪经授权发布。















