公司战略与平台定位 - Google在Android Show: XR活动中首次明确了Android XR的设备路线,并正式展示了与三星合作的AI眼镜原型机[1] - 公司强调Android XR不再只是“支持头显的Android版本”,而是一个以Gemini为核心的全新计算平台[1] - 公司策略延续了Nexus时代的合作模式:系统由Google定义,硬件交给不同厂商探索,产品形态可以并行演进,而非复制Apple自上而下的硬件收敛路线[3] - 该策略被认为虽然“保守”,但好处是Android XR不会因为某一种失败的硬件选择而被提前否定,公司选择先稳住系统再推进硬件[22] 产品路线与硬件形态 - Google一次性铺开了四条产品路线:XR头显、AI眼镜、有线XR眼镜以及未来的真无线XR眼镜[3] - XR头显以三星Galaxy XR(Project Moohan)为代表,承担“平台锚点”角色,确保Android XR在XR领域有基本盘[8] - AI眼镜是公司重点,正与三星、Gentle Monster、Warby Parker共同开发两款,一款带显示一款不带,特征为压低“系统存在感”,强调随身佩戴、低干扰、即时理解[10] - 有线XR眼镜是与XREAL合作的Project Aura,预计明年正式发布,证明了系统可在非头显形态下成立[12] - 无线XR眼镜路线被明确放在未来,在散热、功耗、重量和成本未同时满足前,公司不急于让Android XR被某一代硬件绑定[14] 技术核心:AI与系统整合 - Gemini将作为默认的智能层存在于Android XR中,贯穿视觉、语音、环境感知与交互理解[2] - Android XR的角色是为多模态AI提供稳定、可扩展、跨设备体验的系统载体[2] - 在实际体验中,Gemini退到更低的系统层级,承担理解上下文、空间和任务状态的角色,而不再只是以“应用”或“助手入口”形式存在[15] - 在Galaxy XR上,用户通过指向、注视配合意图描述,系统就能完成窗口管理等操作,体现了AI在工作流中的实际意义[15] - 在AI眼镜上,Gemini是交互核心,交互只围绕用户“看到了什么”“想知道什么”,体验改变来自AI被放置在自然且克制的位置[16] 开发者生态与开发策略 - Android XR不要求开发者“转型做XR”,而是希望XR能自然地成为Android生态的一种新形态延伸[3] - 不同设备形态共享同一套开发栈,Jetpack、Compose、ARCore、Play Services等成熟工具被重新投射到空间计算与可穿戴设备上[3] - 公司几乎把所有关键信号都压在了“开发侧”,Android XR的SDK持续更新,工具链并非为某一款硬件定制,而是跑在不同眼镜与头显上[23] - Android XR试图用操作系统层的抽象,统一“原生眼镜应用”与“手机扩展能力”两条开发路径[28] - 对开发者而言,AI不再只是可选能力,而是一个始终在场、可被调用的系统级智能层,开发不必以“做一个XR应用”为起点[28] - 公司希望XR成为Android体系里的一种新运行环境,在XR尚未形成统一范式前,先把开发者的心智和工具链锁进Android体系[29] 行业竞争与市场格局 - AI大模型的核心战场正在快速扩大至设备与OS操作系统,OpenAI CEO山姆·奥特曼认为苹果也是其竞争对手[20] - 字节跳动通过“豆包手机助手”和“豆包手机”的出现,也表明了类似的战略方向[20] - Meta面向开发者推出可穿戴设备接入工具包,强调把眼镜能力接入既有的手机应用,让眼镜成为手机应用的感知与交互延伸[25] - 国内厂商Rokid围绕AR眼镜建立应用生态,其SDK允许开发者直接为眼镜本体开发原生独立应用,或面向手机构建控制和协同应用[25] - Rokid的模式是从眼镜端和手机端双向推进,把眼镜当作独立计算终端经营[28] - Android XR的定位卡在Meta与Rokid的策略之间,也高于两者之上[28] 长期愿景与影响 - Android XR是一次以Gemini为轴心,对Android本身的重新定义,这种定义很可能不会局限于XR和眼镜设备[30] - 如同Meta和OpenAI的愿景,目标是让AI主导的“环境计算”(Ambient Computing)在所有可能存在“计算与理解”的设备上成为现实[30]
谷歌收拾XR旧河山:AI重新定义的XR,将「吞噬」设备与OS