一文读懂Android XR发布会:谷歌“亲儿子”明年开卖

36氪的朋友们·2025年12月09日 18:20
谷歌发布Android XR平台,联合三星、高通推智能眼镜和头显,2026年上市。

12月9日凌晨,谷歌举办XR Edition特别发布活动,首次系统性地展示了XR领域的最新进展。

谷歌将Android XR定位为“业界首个为扩展现实设备打造的统一平台”。

这一平台的核心在于其统一的Android基础,可以将智能手机时代的体验优势直接延伸至XR领域。

图:谷歌计划将Android XR打造为首个统一的XR平台

把Android体验搬到XR平台上,谷歌拉了三星、高通入伙,其中三星负责技术架构和产品,高通负责芯片。

安卓时代,谷歌亲儿子Nexus系列,基本就是类似的套路。

按照谷歌的定义:Android XR的设计哲学,是将扩展现实视为一个连续的设备谱系,而非单一产品形态,翻译过来就是,产品形态很多元。

按照谷歌的介绍,Android XR的硬件不仅有功能强大、能提供深度沉浸体验的头戴设备,适合娱乐、游戏等高强度交互;也有轻便时尚、可全天佩戴的AI智能眼镜。

而介于两者之间的,则是如XREAL Project Aura这类融合了双方特点的混合形态设备。

Android XR的“亲儿子”

为了保证Android XR的体验,谷歌与三星主导技术架构。

设计上,作为“亲儿子”系列初代产品,谷歌选择了走时尚路线,邀请了眼镜行业的领导者Warby Parker和先锋设计品牌Gentle Monster参与产品定义与设计,包含两个型号,计划在2026年正式推出。

一款是注重基础交互的音频版AI智能眼镜,配备先进的微型扬声器阵列、高清摄像头和环境麦克风,用户可以通过自然语音与Gemini进行对话,实现音乐播放、通话沟通、即时拍摄等功能。

另一款则是在此基础上进一步集成了一项关键技术——带屏幕——一个微型、低功耗的透明显示屏,能够在用户视野的恰当位置以极高的隐私性显示导航箭头、消息通知、实时翻译字幕等信息。

这两款产品,既然叫做智能眼镜,设计哲学被明确为“首先是眼镜”。

所以设计合作方的理念是让复杂的传感器和计算模块隐于无形,融入日常穿搭。

产品体验则完全围绕Gemini AI构建,致力于提供一种“情境感知式”的无感协助。

例如,通过视觉搜索,眼镜可以识别用户看到的物体并即时提供相关信息,如在超市中识别商品成分;

实时翻译功能可支持面对面的自然对话,打破语言隔阂;

结合地理位置与视觉识别的情境提醒,能在旅行中主动推荐景点或在复杂交通枢纽引导用户至准确的上车点。

此外,眼镜还融入了谷歌最新的多模态AI能力,用户只需语音指令即可完成拍摄,并利用类似Nano Banana的轻量级图像模型进行实时创意编辑,如在合影中添加有趣的虚拟元素,让智能交互充满趣味与个性。

新增“有线XR眼镜”品类

既然是多元,就不能只有智能眼镜,所以谷歌还联合XREAL推出了介于头显与AI眼镜之间的新设备品类——有线XR眼镜。

首款产品Project Aura,设计核心是分体式架构——眼镜+计算设备——预计将于2026年正式推出。

用户佩戴的是一副形态接近普通眼镜、采用光学透视方案的轻便显示终端,它通过一根线缆连接到一个独立的、被称为“Puck”的便携式计算核心上。

这个Puck不仅承载了主要的运算单元和电池,其表面还可作为触控板使用,实现了算力与佩戴舒适度的平衡。

Project Aura的产品体验倒不新鲜,可以概括为:真实世界画面+虚拟窗口内容高精度地叠加。交互方式直观,用户可以直接用手在空间中进行操控。

按照谷歌的演示,Project Aura既可以作为独立XR,并且拥有谷歌应用生态支持,也可以作为移动设备的外接屏幕,当然也整合了Gemini的AI能力。

三星用头显与谷歌绑定

三星和谷歌在Android XR上的合作,不仅包括帮助其打造“亲儿子”产品,也拿出了头显形态产品Galaxy XR。

实际上,10月份的时候,三星就已经发布了这款产品,所以这次主要是三个功能的升级。

首先,基于PC Connect功能彻底打破了头显与个人电脑之间的壁垒。

用户现在可以将Windows PC的整个桌面或任意单个应用窗口,以无线、低延迟的方式无缝“拉入”头显的无线虚拟屏幕之中。

用户可以在一个完全沉浸、不受物理边界限制的环境中使用Photoshop、CAD等专业软件进行创作,也开启了全新的娱乐方式——将高性能PC游戏串流至头显。

其次,为了解决用户在佩戴头显进行视频通话时“隐身”的社交尴尬,谷歌推出了Likeness功能。这项技术允许用户创建一个高度逼真的个人数字人化身。该化身并非静态模型,而是能够通过头显的传感器实时、精确地镜像用户的所有面部微妙表情、口型动作乃至头部的自然转动。

在Google Meet等视频会议中,与会者看到的将是一个栩栩如生、表情同步的“你”,极大地增强了虚拟社交的真实感与临场感,让远程协作和沟通变得更为自然亲切。

第三,为了拓展头显的使用场景至移动环境,全新的Travel Mode应运而生,利用先进的算法智能补偿外部运动带来的干扰,显著稳定用户视野中的虚拟画面,减少因画面抖动而产生的眩晕感。

除了上述即刻可用的三大功能,谷歌还预告了一项计划于明年推出的核心技术——系统级自动空间化,在系统底层,实时、自动地将任何普通的2D应用界面,动态转化为具有立体深度和空间感的3D沉浸式体验。

此举将无需开发者进行单独适配,从而有望瞬间极大地丰富XR生态的内容库,将整个数字世界“空间化”,预示着沉浸式交互将从特定应用走向普适化体验的未来。

开发工具包更新

面向开发者社区,谷歌同步发布了Android XR SDK开发者预览版3(DP3)。

本次更新的核心在于首次正式开放了对AI智能眼镜的完整开发支持,标志着Android XR平台从沉浸式头显正式延伸至全天候佩戴的智能可穿戴领域。

为帮助开发者高效构建面向未来的眼镜应用,谷歌推出了两大专属开发库:

Jetpack Glimmer是一个专为透明显示屏设计的现代化UI工具包,基于Compose构建,它提供了经过精心优化、符合眼镜交互逻辑的界面组件(如卡片、列表),让开发者能够轻松创建清晰、优雅且对现实世界干扰最小的视觉体验。

Jetpack Projected则是一个基础API库,它旨在解决生态扩展的初始挑战,允许开发者将现有Android手机应用的核心功能与业务逻辑,通过简洁的接口快速“投射”至眼镜平台,管理音频与摄像头访问,从而实现从移动端到眼镜端的平滑过渡,显著简化了开发流程。

在增强现实能力方面,SDK集成了ARCore for Jetpack XR,并新增了关键的地理空间API。这使得开发者能够利用全球规模的视觉定位服务,构建出基于精确地理位置与现实场景识别的应用,例如提供实时的AR步行导航。

为了构建一个开放且充满活力的生态,Android XR遵循OpenXR这一行业开放标准。

在游戏与高沉浸感内容创作领域,Unreal Engine现已能够利用其原生OpenXR支持为Android XR进行开发。谷歌还宣布,其官方提供的专属插件(将集成更深度的手部追踪等平台特性)预计于2026年初发布,以进一步释放引擎的创作潜力。

与此同时,开源的Godot引擎已在其v4.2.2稳定版中,通过官方插件提供了对Android XR的完整支持,为独立开发者和小型团队提供了强大而灵活的选择。

一个生动的开发者案例来自Uber,他们演示了如何利用新工具为带显示屏的AI智能眼镜重塑出行体验。

当乘客抵达机场,眼镜的透明显示屏上会浮现出行程状态与预计到达时间,让信息获取无需低头。通过集成的AR路径引导,虚拟箭头会清晰地叠加在真实的航站楼环境中,引导用户步行至准确的上车点。

最终,车辆信息(如车牌号)会直接显示在视野中,用户甚至可通过眼镜便捷地呼叫司机,整个过程实现了信息与物理世界的无缝融合,让用户始终保持抬头、解放双手。

本文来自“腾讯科技”,作者:金鹿,36氪经授权发布。

+1
2

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

广告行业正在经历一场从内容制作到投放逻辑的系统性重构。

11小时前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业