文章核心观点 - 行业共识认为,当前人工智能(AI)在逻辑和语言能力上取得突破,但缺乏对三维物理世界的理解和交互能力,即“空间智能”的缺失,这限制了具身智能(Embodied AI)的发展[1] - 空间智能被视为AI发展的下一个关键十年,是一场让AI获得理解、推理并与物理世界交互底层能力的“认知革命”,其发展将推动AI从被动的信息处理器转变为能在真实世界中主动行动的智能体[6][8][9] - 行业正通过“世界生成”和“空间决策”两大技术路径攻克空间智能,并致力于通过算法创新(如纯视觉方案)将高昂的空间感知成本降至消费级水平,这被视为具身智能迎来大规模普及的“拐点”或“iPhone时刻”[13][23][24][34][38] 感知困局与空间智能的定义 - 当前AI存在“语言强、手脚笨”的困境:参数规模突破万亿的大语言模型(LLM)逻辑推理能力逼近人类,但智能设备在复杂物理环境中仍难以完成简单避障,多数AI眼镜仍停留在“2D提词器”阶段[4] - 空间智能的缺失是核心痛点,其被定义为AI理解物体深度、距离、遮挡、重力及物理关系的能力,是连接感知与行动、驱动智能涌现的核心[5][6][8] - 行业竞争焦点正从“参数竞赛”转向“感知革命”,目标是让AI以更低成本实现更快的空间直觉[6] 空间智能的技术路径分野 - 路径一:世界生成:致力于构建高保真、可交互的虚拟3D环境,为AI训练和创意产业提供“数字孪生”基础[14][16] - META的SAM 3 (3D)项目旨在为物理世界万物进行3D标记与重建,建立庞大的视觉词典[16][28] - 李飞飞领衔的World Labs的“Marble”模型能够理解并生成可交互的3D场景[16] - 中国的GIGA专注于利用神经渲染技术从2D图像或视频中高效生成高质量3D场景资产[16] - 路径二:空间决策:专注于让机器基于实时视觉输入,在毫秒间理解空间关系并做出安全、精准的决策[14][18] - NVIDIA的NitroGen项目建立视觉到动作的端到端模型,减少传统规划延迟[19][28] - 小鹏汽车的城市级智能驾驶系统是在复杂开放世界中完成持续空间决策的实践[19] - 银河通用(Galbot)的VLA模型试图耦合视觉感知、语言指令与动作生成,实现“看到即思考,思考即行动”[19] - 联汇科技(OmAI)侧重于通过普通RGB摄像头和有限端侧算力实现高精度3D开放空间感知[19] - 两条路径构成互补闭环:“世界生成”为“空间决策”提供训练环境,“空间决策”的真实数据反哺“世界生成”模型[21] 成本拐点与产业化突破 - 行业拐点在于将高昂的空间感知能力变为可大规模普及的基础服务,核心是成本下降[23][25] - 传统方案依赖昂贵硬件:多摄像头BEV架构或数千美元的激光雷达,将具身智能禁锢在高端场景[26][31] - 纯视觉路径正在打破成本魔咒:通过算法重构,用普通RGB摄像头和端侧模型实现高精度3D感知,大幅降低成本[26][27] - 案例:韶音(Shokz)与联汇科技(OmAI)联合推出的AI眼镜,仅通过普通RGB摄像头和端侧OmModel模型实现实时3D开放空间感知,将成本降至单目摄像头水平[27] - 算法重构带来的影响包括:使AI眼镜、家用机器人进入消费级价格区间;为盲人导航等场景提供端侧实时处理能力保障安全;完成从“看到物体”到“理解空间”的关键进化[32] 投资视角与行业前景 - 投资焦点从参数规模转向空间智能的落地效率,关注AI在物理世界中实现“仿生灵动”的能力[34][35] - 成本革命驱动市场扩张:当3D空间感知成本从数万元(激光雷达方案)降至数百元(纯视觉算法方案),市场容量将指数级扩张,推动扫地机器人、低空无人机、消费级具身机器人等大规模落地[34] - 数据入口价值:能在复杂场景中实现“视觉闭环”的企业,将掌握物理世界最真实的数据流,构建深厚护城河[34] - 未来3-5年,具备端侧、实时、高精度3D空间感知与决策能力的企业,有望成为具身智能生态中不可或缺的“视觉芯片级”供应商,行业地位堪比PC时代的Intel或移动时代的ARM[34] 行业影响与未来展望 - 消费端:百元级3D感知方案将催生智能穿戴、智能家居新品类爆发,让AI设备成为像手机一样的生活必需品[38] - 工业端:低成本空间智能将推动智能制造、物流仓储的效率革命,为企业降本增效提供核心动力[38] - 社会价值:将为残障人士、老年人等群体带来更便捷的生活方式,加速AI普惠[38] - 未来三年,AI将以其在物理世界中的“仿生灵动”与“自主”重新定义智能边界,行业正在见证从“语言智能”向“空间智能”的范式跃进[38]
CES 2026超前瞻:空间智能来势汹汹!从实验室奢侈品到消费级刚需,如何重塑 AI 具身时代?
机器之心·2026-01-05 06:09