百度背叛激光雷达路线了吗?( 三 )


选择自由 – 拿到视觉船票激光雷达市场百花齐放 , 谁家能跑赢Robotaxi商业化阶段的规模化量产尚不清晰 , 缺少自研抓手又如何紧随行业趋势适配前沿雷达产品呢?面对不确定性 , 百度也有自己的思考和应对 。
“在我们的技术规划中 , 未来百度在激光雷达的选择上要更从容 。 重度依赖激光雷达的感知系统面临的问题之一便是雷达技术的更新换代 。 当今基于三维点云的环境感知算法已全面拥抱Learning化和数据驱动 , 感知效果飞速提升同时对标注数据的累积也更加倚重 , 不轻易更换雷达的顾虑 , 部分来自传感器数据变更后给现有感知模型的复用和泛化带来的挑战 , 前期构筑的数据壁垒优势也难以保持 。 相比成像原理和时空采样密度各异的激光雷达 , 视觉成像技术的发展趋势清晰 , 视觉感知在数据标注、数据复用和模型泛化技术上都更加成熟可控 。 ”
百度对视觉技术的布局意图清晰 , 通过压强视觉技术研发获得纯视觉L4级闭环能力意味着拿到了一张船票 , 让百度在激烈的自动驾驶技术竞争中保持成本和数据优势 , 对激光雷达的选择更敏捷自由 。
冗余 – 做正确的事使用单传感器解决复杂的环境感知问题总会遇到短期无法跨越的深沟固垒 , 对「传感器融合」五字的理解实践 , 业内也不尽相同 。
起跑阶段 , 百度和大多数同行今天的做法类似 , 面对困难选择做容易的事情 , 从快速解决问题的目标出发设计融合策略 , 难免避重就轻地利用异构传感器各自的优势进行取长补短 , 快速收敛问题背后的代价是系统实现维护难度的增加和对安全问题自身可解释性的忽视 , 长此以往 , 借助叠加厚重策略和参数假设解决长尾问题的路径步履维艰 。
在追求自动驾驶安全的实践中百度对传感器融合的认知也在发生变化 , 概率上保证感知结果的可解释性和完备性意味着多套能够支撑自动驾驶的感知系统独立工作相互校验 , 融合端减少策略深度耦合引入的数据依赖与人为假设 。
大道至简的思想背后 , 传感器间的「主次」概念逐渐淡化 , 新理念也对单传感器感知能力提出了更高要求 。 对于视觉感知 , 对其作用的定位不再局限于为激光雷达查漏补缺或者解决某些子任务 , 转而追求独当一面的全栈能力 。
02 Apollo Lite两周年画像2019年初Apollo Lite启动了在北京稻香湖路网内的开放道路测试 , 经过长期实测 , 对稻香湖道路环境驾轻就熟的Apollo Lite选择挑战更复杂的城市道路场景 , 将2020年的测试区域选在了北京亦庄 。
亦庄测试区是当前国内开放的最大规模的L4级别自动驾驶路网 , 覆盖了复杂城市道路多种典型场景 , 包含工业区、生活区、商超等多种城市功能区域 , 道路场景涵盖快速路 , 主干路 , 次干路、支路和轻轨铁路等 , 路网里程322公里 , 涵盖110多条道路 。
对比稻香湖测试区域 , 亦庄道路覆盖里程提升近20倍 , 站点数量提升50倍 , 机动车和人流平均密度提升2倍 。
经过近一年的技术迭代 , Apollo视觉感知能力稳步提升 , 如今两周岁的Apollo Lite具备了仅使用10颗摄像头应对中国复杂城市道路环境的自动驾驶能力 。
与一年前相比 , 纯视觉配置的测试车辆规模提升3倍 , 累计L4闭环测试里程增加18倍 , 平均送达(无人为干预的点到点自动驾驶)成功率提升60% 。
纯视觉感知方案有多难?自动驾驶系统涉及的众多软硬件中 , 传感器决定了环境建模的方法和效果 , 对驾驶能力有直接的影响 。 近年来各家自动驾驶公司持续刷新无人车上路速度和演示难度 , 他们均采用高线数机械旋转式激光雷达充当无人车的眼睛 , 与之相比 , 打造一套纯视觉方案的难度有多高 , 技术含金量如何体现?
无人驾驶的大脑 – 车辆轨迹速度的决策规划计算离不开感知模块实时构建的三维环境 , 对障碍物位置、尺寸、速度和朝向等属性的准确性、时空稳定性都有极高的要求 。 激光雷达作为「主动」成像(Active sensing)传感器 , 与摄像头相比最大的优势在于其强大的三维测距能力 , 通过飞行时间(Time-of-Flight)原理能够在100毫秒内完成对其周边360°环境的实时建模 , 测距精度达厘米级 。 精准的三维信息为物体检测、跟踪、分类等任务带来了便利 , 大幅度简化了感知算法的设计实现 。