自动驾驶流派分歧

搜索文档
自动驾驶的流派纷争史
36氪· 2025-09-28 02:50
自动驾驶商业化进展 - 截至2025年5月 Waymo在美国4个城市运营1500辆自动驾驶出租车 每周完成超25万次付费出行服务[1] - 百度Apollo全球部署超1000辆无人驾驶汽车 累计提供超1100万次出行服务 安全行驶里程超1.7亿公里[1] 传感器技术路线分歧 - 纯视觉方案采用8个环绕摄像头模拟人类视野 依赖深度学习算法从二维图像重建三维环境 成本极低适合大规模商业化[7] - 多传感器融合方案以激光雷达为主 可生成精确3D点云图 早期造价达7.5万美元 但能应对恶劣天气条件[5][9] - 主流车企包括Waymo、小鹏、蔚来选择多传感器融合 认为安全冗余是不可逾越的红线[9] 传感器内部选择差异 - 激光雷达角分辨率极高 能清晰分辨行人姿态和车辆轮廓 是L4/L5自动驾驶必备传感器[11] - 4D毫米波雷达成本仅数百元 具备强大穿透能力 可在恶劣天气下工作 但点云稀疏无法勾勒物体轮廓[13] - L4 Robotaxi和豪华车采用"激光雷达为主 毫米波雷达为辅"策略 L2+/L3经济车主要依赖"摄像头+毫米波雷达"方案[15] 系统架构发展路径 - 模块化设计将驾驶任务拆分为感知、预测、规划、控制等独立子任务 可解释性强且易于调试[16] - 端到端模型直接将传感器原始数据映射到驾驶控制指令 全过程无信息损失但存在黑箱难题[18] - 行业出现"显式端到端"折中方案 保留可行驶区域等中间输出以平衡性能与可解释性[18] 大模型应用方向 - VLM视觉语言模型追求过程可控 利用图像-文本配对数据预训练 技术相对成熟更易落地[19][23] - VLA视觉语言动作模型主张模型自主学会驾驶规则 需要海量视频-控制信号配对数据 训练成本高昂[21][23] - Waymo、Cruise、华为、小鹏选择VLM路线 特斯拉、吉利和理想探索VLA路线[25] 技术融合趋势 - 纯视觉方案开始引入更多传感器 多传感器融合方案中视觉算法地位提升[9] - 模块化架构开始吸收端到端优势 大模型为所有系统注入认知智能[25] - 激光雷达与视觉正在融合为多模态感知系统[25]