概述
自动驾驶技术架构,强调其作为“大脑与神经网络”的角色,需整合感知、决策、执行和云端协同等多个环节。目标是从实验室走向实际道路,支撑车辆实现安全、自主的驾驶。架构分为多个层级:车端硬件、车载计算平台、执行硬件、云端训练、决策规划、功能安全、车路协同等,最终形成一个闭环系统。
车端硬件
车端硬件是自动驾驶的第一步,负责“看得见、摸得着”环境与自身状态。分为三大子系统:
- 外部环境感知:依赖多传感器融合方案,以应对不同场景的盲点。
- 摄像头:通过光学镜头和图像传感器捕捉道路、交通标志、行人等二维信息,供视觉算法处理。
- 毫米波雷达:在雨雾等恶劣天气下稳定测量目标距离和速度。
- 激光雷达:发射数十万到数百万束激光脉冲,生成高精度三维点云,用于重建物体三维轮廓。
- 超声波雷达:适用于低速泊车和近距离避障,提供米级精细探测。
- 传感器融合:不同传感器(如摄像头、雷达)互补盲点,构建全天候环境模型。
- 车辆状态感知:实时监测车辆动态参数。
- 转向角度传感器:检测方向盘角度变化,判定转向意图。
- 轮速传感器:基于车轮转速差异计算车速和滑移率,为ABS和TCS系统提供数据。
- 惯性测量单元(IMU):结合GNSS/RTK定位,通过扩展卡尔曼滤波融合高频惯性数据和低频卫星数据,实现厘米级连续定位(即使在隧道等信号弱区)。
- 车内驾驶员监测系统(DMS):为L2/L3级辅助驾驶提供安全保障。
- 组成:红外摄像头、普通摄像头、压力/生物传感器。
- 算法:面部与眼球关键点检测、头部姿态估计、眨眼频率统计,评估驾驶员注意力和疲劳状态。
- 功能:在注意力分散或双手离开方向盘时触发警示或接管机制,确保人车协同安全。
车载计算平台
车载计算平台是数据处理的“中枢神经”,负责实时汇聚传感器数据,进行推理与决策。
- 域控制器(Domain Controller):核心组件,集成数据处理、推理计算、子系统驱动(人机交互、T-Box、线控底盘)。
- 核心组成:
- 计算SoC(System on Chip):集成CPU、GPU和NPU(神经网络处理单元),支持INT8/FP16量化推理,平衡算力与功耗。算力需求:L2级50–200 TOPS,L3级≥200 TOPS,L4级≥1000 TOPS,L5级≥2000 TOPS。强调算力优化优于盲目追求峰值。
- 内存与存储子系统:处理海量数据流。
- 电源管理与散热设计:确保稳定运行。
- 接口设计:支持多种总线标准,如GMSL/FMC+CSI-2(高速摄像头输入)、IEEE 802.3 100Base-T1/1GBase-T1(车载以太网)、CANFD(控制总线)、SPI/UART/I²C(低速接口),以及LIN总线/FlexRay(兼容执行器和车身模块)。
- 操作系统(OS):选用ISO 26262 ASILD级安全标准的RTOS或微内核系统,如Classic/Adaptive AUTOSAR、QNX、嵌入式Linux车规版或华为AOS/VOS。特性包括:内核级安全隔离、优先级抢占式调度、时间分区技术,确保高优先级任务(如碰撞预警)毫秒级响应,支持多任务并行、数据加密和OTA安全升级。
- 核心组成:
边缘推理与执行硬件
在计算平台推理完成后,输出结果通过执行硬件落实控制。
- 输出结果:
- 实时轨迹生成:驱动转向、加减速和悬架调节。
- 场景理解与预测:用于人机交互和冗余安全校验。
- 执行机构:
- 线控转向(SBW):替代机械连杆,电机直接驱动转向总成,实现可编程反馈和自适应助力比调整。
- 线控制动(EBB/EHB):电子控制液压或电机制动,支持四轮独立制动,提升湿滑路面和急停安全性。
- 线控驱动:针对电动/混动平台,通过电机扭矩分配实现精准驱动。
- 智能悬架:动态调节阻尼和高度,平衡舒适性与操控稳定。
- 控制机制:配备反馈传感器(如转向角度编码器、制动压力传感器),形成闭环控制。结合模型预测控制(MPC)或自抗扰控制(ADRC)算法,实时修正轨迹偏差,应对路面扰动和负载变化。
云端训练与车云闭环
车端推理不足以处理长尾场景(Corner Case),依赖云端进行大规模训练和验证。
- 训练流程:
- 数据采集:要求规模性(千万公里级真实数据+百亿级仿真数据)、准确性(多级标注和一致性管控)、多样性(覆盖不同道路、气候、交通习惯)。
- 标注质检:确保数据质量。
- 仿真合成:生成复杂场景数据。
- 分布式训练:使用超算集群和强化学习优化决策策略,结合大模型架构。
- 轻量化部署:通过剪枝、量化、蒸馏技术生成适配车载算力的轻量模型。
- 验证与迭代:
- 多层次仿真体系:包括场景回放测试和对抗性测试,验证极端工况下的鲁棒性。
- OTA更新:将成熟模型下发车端。
- 影子模式:在真实路况下采集数据,用于后续迭代,形成“车云协同”闭环。
智能决策与行为规划
决策规划是自动驾驶的“大脑”,负责从感知到执行的中间环节,确保行为类似人类驾驶。
- 策略规划(Behavior Planning):高层决策输出驾驶动作(如“超车”或“减速进匝道”)。
- 方法:状态机(Finite State Machine)、规则树(Decision Tree)、强化学习策略网络(Policy Network)。
- 进阶技术:意图识别模块预判他车行为(如前车变道、行人穿越),Transformer模型预测多目标意图并计算行为得分。
- 路径规划(Path Planning):基于策略生成平滑可行路径。
- 方法:混合A*算法、贝塞尔曲线、样条曲线(Spline)、状态采样(RRT)。
- 约束:满足车辆动力学(最大转向角、最小转弯半径、最大横向加速度),兼顾舒适性(避免急转弯或颠簸)。
- 轨迹控制(Trajectory Control):将路径转换为控制命令(如速度、方向盘转角)。
- 方法:PID控制、前馈控制(Feed-forward)、模型预测控制(MPC)。MPC将控制问题转化为带约束优化问题,预测未来响应并输出最优序列。
- 协同预测:在复杂场景(如多车汇流),使用多主体博弈模型(Game-theoretic Planning)协同预测他车轨迹,提升决策鲁棒性。
功能安全与网络安全
自动驾驶涉及人身安全,需嵌入严格的安全机制。
- 功能安全:
- ISO 26262标准:划分ASIL等级(A-D),D级最高(适用于转向/制动等关键环节)。
- HARA(Hazard Analysis and Risk Assessment):识别潜在危险事件,设计冗余方案(如线控制动双通道:主通道工作,副通道紧急备份)。
- 故障注入机制:模拟软硬件故障,检验应急响应(Fail Operational原则:部分失效时保障基本功能)。
- 网络安全:
- ISO/SAE 21434标准:构建多层架构。
- 车载以太网防火墙(Firewall)和入侵检测系统(IDS):隔离外部通信(如T-Box)与核心控制器。
- 端到端加密:采用TLS/SSL或DTLS,数字签名和证书验证数据完整性和来源。
- 安全启动(Secure Boot)和安全执行环境(TEE):启动时验证软件完整性,防篡改。
- ISO/SAE 21434标准:构建多层架构。
车路协同与系统进化
从“单车智能”向“车路协同”演进,融入智能交通系统。
- V2X技术:
- 场景:V2I(车与路侧设施)、V2V(车与车)、V2N(车与云)、V2P(车与行人)。
- 应用:V2I提前获知红绿灯变化调整车速,减少急刹;V2V广播事故警告避让。
- 通信基础:
- C-V2X技术:基于蜂窝网络,包括PC5直连(低延迟场景,如紧急避让)和Uu网络通信(海量数据交换,如拥堵广播)。
- 5G-V2X优势:延迟缩短至1–5毫秒,支持高速协同。
- 系统架构:
- “车-路-云”三层协同:城市交通管理中心处理拥堵预测、绿波带控制;边缘计算节点处理路口信号配时、轨迹融合。
- 数字孪生系统:实时建模虚拟交通世界(车辆轨迹、红绿灯配时、交通流),服务于规划、应急管理和事故追溯。
自动驾驶是系统工程的全方位突破,依赖多技术层级的协调(感知、决策、执行、云端、安全、协同)。未来演进方向包括算法大模型、芯片算力提升和车路一体化,目标是从“辅助驾驶”迈向“无人化运营”。成功关键不在于技术堆砌,而在于系统稳定性、可控性和协同性。最终愿景是构建“聪明的交通”,实现高效、安全、绿色的出行新时代。
- 核心人物:华为智能汽车解决方案BU CEO靳玉志,分享华为汽车业务进展及技术观点。
- 时间背景:访谈发生于华为ADS 4.0即将大规模上车之际(2024年)。
华为自动驾驶阶段性成就
靳玉志公布截至2024年7月的关键数据,体现华为在智驾领域的领先地位:
- 乾崑智驾搭载量:100万辆(截至2024年7月)。
- 激光雷达出货量:超过100万台(全球最大激光雷达供应商之一)。
- 辅助驾驶累计里程:40亿公里(验证系统可靠性)。
- 合作车型规模:截至2024年8月底,共有28款搭载华为技术的车型上市,涵盖品牌包括:
- 华为自有“界”系列(如问界、尊界)。
- 合作车企:阿维塔、深蓝、岚图、猛士、传祺、方程豹。
- 国际品牌:奥迪(体现全球化布局)。
华为的长期主义战略
- 投资历程:华为车BU自2014年开始投入,十年间持续投入研发资源,近期实现当期盈利。
- 盈利逻辑:
- 不急于制定商业化目标,避免因短期利益损害技术积累。
- 靳玉志观点:只盯着商业化会适得其反;坚持技术研发与用户需求满足,终将实现可持续盈利(当期盈利后,目标转向累计盈利)。
- 战略本质:技术优先于商业化,确保系统长期竞争力。
自动驾驶技术路线之争:VLA vs WA
靳玉志对比两种主流技术路径,阐明华为选择WA(World Action)的原因:
- VLA(感知语言行为模型):
- 核心逻辑:利用成熟的语言大模型(如OpenAI),将视频数据转化为语言token训练,再生成控制指令。
- 行业现状:部分头部车企采用此路径,实现辅助驾驶能力快速迭代。
- 华为批判:路径“看似取巧”,但非终极方案——依赖语言转换会引入信息损失和延迟,无法真正实现自动驾驶。
- WA(世界行为模型):
- 核心逻辑:直接通过多模态输入(视觉、声音、触觉等)生成控制指令,省去语言转换环节。
- 华为优势:已基于WA架构推出WEWA模型(云端世界引擎+世界行为模型),将于ADS 4.0部署。
- 技术挑战:当前难度更高,但靳玉志认为WA能实现“真正的自动驾驶”。
- 关键洞见:WA代表“端到端控制”,直接连接感知与执行,减少中间环节的误差。
辅助驾驶商业模式与收费合理性
靳玉志回应“免费辅助驾驶”争议,强调收费的必然性:
- 免费本质批判:
- 不存在真正免费:免费策略实为“支付转移”(如车价包含成本、限时免费、或牺牲用户体验)。
- 风险提示:部分车企以免费名义将用户当作“实验品”,损害安全性与体验。
- 收费合理性论证:
- 持续投入需求:辅助驾驶需全生命周期维护(迭代、OTA升级、硬件兼容),例如华为从ADS 1.0到4.0的持续升级。
- 用户价值:华为采用“生命周期管理”理念,确保硬件长期兼容(如早期用户设备仍可升级),折算后成本更低。
- 商业回报:收费支撑研发投入,形成“越用越优”的正循环。
- 全栈模式优势:
- 鸿蒙座舱与乾崑智驾均采用软硬件耦合设计,避免解耦导致的体验下降和维护难题。
- 对比行业:部分车企为降本解耦软硬件,但牺牲长期用户体验。
激光雷达配置争议的回应
针对“增加激光雷达为溢价”的质疑,靳玉志从安全角度辩护:
- 配置示例:尊界S800搭载前向+双侧向+后向固态激光雷达。
- 安全驱动逻辑:
- 后向雷达必要性:摄像头无法识别未知障碍物(如墙面水管、农田坑洼),激光雷达提供厘米级精度和深度信息,避免泊车事故。
- 用户场景导向:配置基于真实需求(如农村复杂路况),非刻意堆料。
- 核心理念:“零伤亡事故”为目标,安全投入优先于成本考量。
未来规划与技术愿景
华为公布明确的自动驾驶与智能座舱发展路线图:
- 辅助驾驶演进:
- 2026年:实现高速L3能力(有条件自动驾驶)+城区L4试点。
- 2027年:无人干线物流试点+城区L4规模化商用。
- 2028年:无人干线物流规模化商用。
- 智能座舱方向:
- 鸿蒙座舱进化为“数字保姆”,集成AI Agent(智能代理)提供主动服务。
- 目标:打通应用生态与硬件设备,实现跨场景协同。
关键问答实录摘要
访谈中靳玉志回应核心问题,体现华为技术自信与行业洞察:
- VLA vs WA路径选择:
- 问:VLA能否实现L4?
- 答:华为拒绝VLA,因其依赖语言转换;WA虽难,但直达自动驾驶本质。
- L3/L4玩家数量预测:
- 答:最终存活企业极少(类比具身智能行业洗牌),因数据驱动依赖算力、算法和公共平台(单独投入不经济)。
- 车型匹配周期:
- 答:华为最快6-9个月完成一款车型的智驾系统匹配。
- 定价与竞争:
- 问:华为7万元定价是否高于友商(如5万元)?
- 答:定价反映价值(持续迭代成本),免费策略不可持续;用户为“常用常新”体验付费。
华为在自动驾驶领域的三大支柱:
- 技术领先:WA路径选择体现“第一性原理”思维,直击自动驾驶核心挑战。
- 商业理性:批判免费模式,倡导可持续收费支撑全生命周期创新。
- 生态布局:从激光雷达硬件到云端训练(WEWA),构建闭环能力。
华为的长期主义与全栈模式是其实现“零伤亡”愿景的基石,未来目标(2026-2028年L3/L4商用)彰显技术自信。靳玉志的访谈为行业提供了关键洞见:自动驾驶成功依赖技术深度而非短期商业化,安全与用户体验不可妥协。
WA(World Action)中文译为“世界行为模型”,是一种端到端(end-to-end)的自动驾驶决策控制框架。其核心思想是:直接从多模态传感器输入(如视觉、声音、触觉等)生成车辆控制行为(action),省去中间的语言转换步骤。靳玉志将WA描述为“通过vision这样的信息输入控车的大模型,而无需把各种各样的信息转成语言,再通过语言大模型来控制车”。这里的vision代表广义感知输入,可能包括摄像头图像、激光雷达点云、麦克风音频等。
行为模型(Behavior Model)指系统从感知数据直接映射到控制指令的能力,强调“感知-行为”的直接性。这与端到端学习(end-to-end learning)概念类似,例如框架可能使用端到端网络,避免了传统模块化流水线(如感知-规划-控制分离)的延迟和误差。
WA的本质是构建一个“世界模型”(World Model),能理解和预测环境动态(如车辆、行人运动),并据此输出实时控制。华为的WEWA模型扩展了这一概念,整合了云端引擎进行大规模数据训练和仿真。
WA的技术架构基于深度学习和大模型技术,分为输入层、处理层和输出层。WA是“直接通过行为端控车”,处理过程不依赖语言token转换。以下是详细拆解:
-
输入层(多模态感知):
- WA接受原始传感器数据作为输入,包括:
- 视觉输入:摄像头捕获的RGB图像或视频流,用于识别物体、车道和交通信号。
- 声音输入:麦克风采集的环境音频(如鸣笛、紧急车辆警报),用于补充视觉盲区。
- 触觉/其他输入:激光雷达点云(提供深度信息)、雷达数据(速度检测)、IMU(惯性测量单元)等。华为增加后向激光雷达以提升泊车安全,体现了多模态融合。
- 这些数据保持原始格式(如图像张量、点云矩阵),不经语言编码。
- WA接受原始传感器数据作为输入,包括:
-
处理层(行为模型核心):
- WA使用神经网络(如Transformer或CNN)直接学习“感知-行为”映射。模型训练目标包括:
- 世界建模:预测环境状态变化(例如,预测行人轨迹或车辆运动),类似于DeepMind的世界模型(arXiv:1803.10122),该模型使用RNN预测未来帧并生成控制。
- 端到端训练:通过强化学习(RL)或监督学习,模型从历史驾驶数据学习直接输出控制指令。例如,输入一段视频序列,模型输出转向、加速或制动指令。
- 华为的WEWA模型引入了云端引擎,用于实时数据增强和仿真测试,提升模型泛化能力。
- WA使用神经网络(如Transformer或CNN)直接学习“感知-行为”映射。模型训练目标包括:
-
输出层(行为控制):
- WA直接生成低级别控制信号(如方向盘角度、油门开度),而不是高级语言指令。输出是连续动作空间的值,通过PID控制器或类似机制执行。
- WA能处理复杂场景(如农村倒车),因为它直接从感知输入识别障碍深度(厘米级精度),避免了语言模型的不确定性。
工作流程示例
- 传感器数据输入:车辆摄像头捕获后视图像,显示一堵墙和伸出的水管。
- WA模型处理:模型直接分析图像像素和激光雷达点云,计算水管的位置和深度(无需转换为“墙上有水管”的语言描述)。
- 行为输出:模型生成“制动”或“转向”指令,防止倒车碰撞。
- 反馈与迭代:通过OTA更新,模型持续学习新场景(如农田坑洼),提升安全性。
-
VLA(感知语言行为模型):
- 技术逻辑:VLA先将感知数据(如视频)转换为语言token(如“车辆在左转”),再通过语言大模型(如GPT系列)生成控制指令。这依赖现有语言模型的成熟度(如OpenAI),但添加了视频到语言的转换层。
- 优势:易于实现快速迭代,因为语言模型能利用互联网知识(如交通规则文本)。
- 劣势:引入额外延迟和误差。语言转换可能丢失细节(例如,无法精确表示深度或速度),导致控制不精确。称其为“看似取巧,却不是自动驾驶的终极方案”。
- 行业用例:头部车企如Tesla早期版本使用类似方法(通过图像标注训练语言模型),但近年转向更直接的端到端。
-
WA(世界行为模型):
- 技术逻辑:省去语言层,直接从感知到行为。WA模型学习原始数据的潜在模式(如通过自注意力机制),避免信息损失。
- 核心差异:
- 数据表示:WA处理原始传感器数据,而VLA依赖离散语言token。
- 控制路径:WA是“感知→行为”,VLA是“感知→语言→行为”。
- 实时性:WA减少10-20ms延迟(根据Waymo技术报告2024),关键于高速场景。
- 华为立场:靳玉志认为WA虽难(需海量数据和算力),但能实现“真正自动驾驶”,因为它更接近人类本能反应(人类驾驶不依赖内部语言转换)。
End-to-End Autonomous Driving 验证了WA式框架的优势
-
优势:
- 高精度与安全性:直接处理原始数据,保留环境细节(如深度、纹理),提升决策可靠性。强调华为WA支持“零伤亡事故”目标,例如通过后向激光雷达避免泊车事故。
- 低延迟:端到端架构减少计算步骤,适用于实时控制(城区L4场景需响应时间<100ms)。
- 泛化能力强:多模态输入使WA适应多样环境(如声音辅助视觉在雾天)。华为WEWA的云端引擎支持大规模仿真,增强模型鲁棒性。
- 长期价值:模型可全生命周期更新(如ADS 1.0到4.0迭代),称用户“初期买得贵,但体验越好”。
-
挑战:
- 数据需求:训练WA需PB级真实驾驶数据,涉及隐私和采集成本。外部报告(McKinsey Autonomous Driving 2024)指出,数据不足是WA部署的主要瓶颈。
- 算力要求:WA模型复杂(如Transformer大模型),需高算力芯片(华为自研昇腾芯片支持,但通用GPU如NVIDIA受限)。
- 验证难度:直接控制模型需严格安全验证(ISO 26262标准),黑盒特性可能导致不可预测行为。
- 行业适用性:WA对车企技术栈要求高,华为采用“全栈模式”软硬件耦合,而部分车企为降本解耦软硬件,可能牺牲WA体验。
华为计划2026年实现高速L3和城区L4试点,WA是核心驱动力。技术前景包括:
- 短期:在ADS 4.0部署WEWA,提升城区NOP(导航辅助驾驶)能力。
- 长期:结合AI Agent(如鸿蒙座舱的“数字保姆”),WA可扩展至无人物流和全场景L4。
- 行业影响:WA可能重塑自动驾驶格局,靳玉志预测“最终存活玩家极少”,因WA依赖数据规模,推动公共平台共享(如华为云)。
WA代表自动驾驶的终极技术方向——直接从世界感知到行为控制,华为通过WEWA模型实现高效、安全且可持续的迭代。
激光雷达多传感器融合方案与纯视觉方案的路线之争。Uber CEO Dara Khosrowshahi、特斯拉CEO Elon Musk和百度CEO Robin(李彦宏)的观点,并对比了特斯拉、Waymo和百度三家头部公司的技术路线、优缺点及市场前景。
近期Uber CEO Dara Khosrowshahi与Elon Musk在自动驾驶技术路线上的公开争论:
- Uber CEO的立场:Dara在采访中表示,自动驾驶的未来必然是多传感器融合方案(包括激光雷达),而非纯视觉。他认为激光雷达成本低、安全系数高,且Uber的所有合作伙伴都采用这种方案。尽管他承认自己可能被证明是错的,但他强调激光雷达在现阶段提供了更可靠的安全冗余。
- Elon Musk的反驳:Musk在社交媒体上强烈反对,认为激光雷达和雷达等传感器会因“传感器竞争”降低安全性(即不同传感器数据冲突导致系统混乱)。他坚持纯视觉方案(仅依靠摄像头和AI算法),并批评Waymo因传感器模糊问题无法在高速公路上行驶。Musk主张,人类仅靠视觉就能驾驶,因此AI系统通过海量数据训练也能达到同等效果。
- 百度的立场:百度(通过萝卜快跑平台)支持激光雷达方案,Robin指出激光雷达已实现成本可控且更安全,纯视觉技术尚处早期阶段。百度认为多传感器融合是L4级自动驾驶的必要基础,能有效应对复杂场景。
这一争论反映了自动驾驶行业的分歧:一方追求低成本和算法驱动(纯视觉),另一方强调安全冗余(多传感器融合)。
技术方案对比:特斯拉、Waymo与百度的路线分析
比较全球三家领先公司的技术方案,突出其设计逻辑、优缺点和实际表现。
-
特斯拉(纯视觉方案):
- 技术演进:特斯拉早期使用激光雷达(如Velodyne雷达,成本高达8万美元),但2019年后转向纯视觉。当前方案基于8个摄像头(8V1R12S配置),结合AI模型(如Occupancy网络和端到端系统),依赖海量车队数据训练神经网络。
- 优点:
- 成本低:摄像头成本远低于激光雷达,利于大规模普及。
- 数据优势:全球车队收集的海量数据用于训练模型,提升算法泛化能力。
- 理念驱动:Musk认为自动驾驶本质是AI问题,传感器冗余是无效的。
- 缺点:
- 安全隐患:在恶劣天气(如强光、雨雾)、弱光或复杂场景下,视觉系统易失效。例如:
- 2019年佛罗里达州事故:Autopilot未能识别静止车辆,致1死1伤。
- 2023年宾夕法尼亚州事故:撞上静止卡车,暴露长尾问题。
- 2025年Robotaxi试运营事故:低速擦碰停放车辆,显示在昏暗小巷中的感知缺陷。
- 技术局限:视觉无法精确测距(依赖算法推测深度),对静止物体(如故障车)识别弱,且高度依赖数据量(corner cases难覆盖)。
- 性能瓶颈:在nuScenes等数据集测试中,纯视觉BEV感知任务得分低于多模态方案5-10个百分点。
- 安全隐患:在恶劣天气(如强光、雨雾)、弱光或复杂场景下,视觉系统易失效。例如:
-
Waymo(多传感器融合方案):
- 技术方案:Waymo采用“13摄像头+4激光雷达+6毫米波雷达”的多模态融合,实现360度无死角感知(最远500米)。方案基于L4级自动驾驶,强调仿真数据生成和多传感器互补。
- 优点:
- 高安全冗余:激光雷达提供精确3D感知,摄像头补充纹理信息,毫米波雷达处理速度数据,减少单点故障风险。
- 实际表现:在复杂城市环境(如洛杉矶好莱坞)稳定运营,2025年周服务量超25万次,事故率低(多为人为破坏,如抗议者打砸)。
- 可扩展性:业务覆盖旧金山、奥斯汀等地,证明方案在真实场景的可靠性。
- 缺点:
- 成本较高:虽激光雷达价格下降(从数万美元降至数千美元),但仍高于纯视觉。
- 系统复杂性:多传感器融合需高效算法处理数据冲突,开发难度大。
-
百度(萝卜快跑,多传感器融合方案):
- 技术方案:百度Apollo平台采用“4激光雷达+12摄像头+5毫米波雷达+12超声波雷达”的融合方案。2024年推出Apollo ADFM大模型,结合10重安全冗余设计,确保L4级能力。
- 优点:
- 安全记录:服务订单超1100万次,行驶里程1.7亿公里,无重大事故。出险率仅为人类驾驶员的1/14。
- 商业落地:已拓展至15个城市(如北京、深圳),并与Uber合作全球部署(如迪拜、阿布扎比)。2025年与Uber的战略合作,将无人车接入Uber网络。
- 成本控制:激光雷达成本降至千元级别(如第六代无人车4颗雷达总成本3.5万元人民币)。
- 缺点:
- 初期投入大:需多传感器硬件集成,研发成本较高。
- 依赖政策:在部分地区(如香港)需获取测试牌照,拓展速度受法规限制。
激光雷达 vs. 纯视觉的核心技术差异
从数据、算法、性能和成本角度剖析两种路线的优劣:
- 数据层面:
- 激光雷达方案需多传感器(前视/周视雷达、相机、毫米波雷达),提供互补数据源(如激光雷达点云精确测距)。
- 纯视觉方案仅依赖摄像头,数据采集简单,但易受环境干扰(如光线变化导致图像模糊)。
- 算法层面:
- 多传感器融合算法(如点云与视觉融合)鲁棒性更高,尤其在极端场景(雨雾、强光)下,激光雷达可“兜底”视觉失效。
- 纯视觉依赖深度学习模型,需海量数据训练长尾场景,但算法推测深度常出错(如误判距离导致事故)。
- 性能层面:
- 激光雷达优势:直接获取厘米级3D环境信息,测距准确,不受光照影响。瑞士再保险测试显示,搭载激光雷达的车辆可避免25%的碰撞事故。
- 纯视觉劣势:在nuScenes数据集测试中,3D检测任务得分较低,尤其在弱光、截断目标或非常规障碍物(如树木)识别上。
- 成本层面:
- 激光雷达成本大幅下降(从Velodyne的8万美元降至千元级),在高端车型(如比亚迪、蔚来)中普及。
- 纯视觉成本最低,但安全风险可能导致更高事故成本(如特斯拉的事故赔偿)。
为什么激光雷达能解决视觉的难点
强调激光雷达的硬件特性使其在关键场景中优于纯视觉:
- 高精度3D感知:激光雷达通过激光束直接生成点云,精确还原物体形状和距离(厘米级精度),避免了视觉的深度推测误差。
- 全天候适应性:作为主动传感器,它在夜间、强光、雨雾中稳定工作(如905nm/1550nm波长抗干扰),而视觉在恶劣天气下失效率高达15%。
- 安全冗余:在高速场景中,激光雷达探测距离达200-300米,为系统预留决策时间(如AEB触发速度提升50%)。纯视觉在类似场景下预警时间不足(如某事故仅提前2秒)。
- 政策驱动:全球法规(如NHTSA要求2029年标配AEB系统)和国内标准(《轻型汽车自动紧急制动系统技术要求》)推动激光雷达应用,因其满足安全要求。
行业趋势与最优解
- 市场选择:高配新能源车型(如比亚迪、蔚来、理想)均搭载激光雷达,而低配车型采用纯视觉。国内公司(如上汽、小鹏)在政策严控下,普遍选择多传感器融合以确保安全。
- 最优解分析:
- 短期:激光雷达多传感器融合更适合当下。政策(如L3/L4准入)和安全需求(责任主体转向车厂)强调冗余。百度Robin的观点被强调:激光雷达已跑通,纯视觉尚处早期。
- 长期:纯视觉有发展空间(成本低、数据驱动),但需解决corner cases。中国道路更复杂,纯视觉(如特斯拉Robotaxi)需更多验证。
- 结论:多传感器融合(如Waymo和百度方案)在安全性和可靠性上更优,纯视觉在成本和算法上具潜力,但当前安全短板明显。
激光雷达多传感器融合方案在安全性、环境适应性和政策合规性上更胜一筹,尤其适用于L3/L4级自动驾驶;纯视觉方案虽成本低且数据驱动,但受限于感知缺陷,事故风险较高。Uber和百度的合作凸显市场对安全冗余的偏好,而Musk的纯视觉路线需依赖未来AI突破。如果您对特定细节(如技术参数或案例)有进一步疑问,我可以提供更针对性的解析。
https://mp.weixin.qq.com/s/CTpsm6sQ8lo9f84dwEhXNA
- Multi-View 3D Object Detection for Autonomous Driving
- PointPillars: Fast Encoders for Object Detection from Point Clouds
- BEVFormer: Learning Bird’s-Eye-View Representation from Multi-Camera Videos with Transformer
- Multi-modal Sensor Fusion for Auto Driving Perception: A Survey
- BEVFusion: Multi-Task Multi-Sensor Fusion with Unified Bird’s-Eye View Representation