在汽车行业迈向智能化、自动化的今天,自动驾驶技术也在快速发展。为了进一步让自动驾驶更加“智能化”,像老师傅一样进行开车,离不开对车辆周围环境的全面认识。
面对复杂的感知任务,单一传感器的局限性逐渐显现,比如相机对目标的颜色和纹理比较敏感,但易受光照、天气条件的影响。LiDAR以获得目标精确的3D信息,但无法获得目标纹理,易产生噪点等情况。多传感器数据融合技术应时而生,通过整合不同传感器的优势,为车辆提供了一个全面、立体的感知维度。
当多种传感器装在同一辆车上时,使用同一个系统来采集并处理数据。为了确保这些传感器采集的数据能有效精准识别同一个物体,需要对这些传感器进行统一时钟和坐标系,即最终实现:同一个目标在同一个时刻出现在不同类别的传感器的同一个世界坐标处。
图1:传感器融合先决条件
1、统一时钟
确保所有传感器数据在时间上的一致性,为后续处理提供同步基准。
2、统一坐标系
统一坐标系包含两步,一是运动补偿,二是传感器标定。
① 运动补偿:确保数据时效性
运动补偿是针对周期性采集数据的传感器,如激光雷达(LiDAR),其数据采集周期可能长达100毫秒。由于车辆在运动,采集周期的开始和结束时刻,车辆的位置已经发生了变化。这就需要对采集的数据进行运动补偿,以确保数据反映的是车辆在某一固定时刻的环境状态。
② 传感器标定:确立坐标转换
传感器标定是确保每个传感器的数据都能准确映射到世界坐标系中的过程。它包括内参标定和外参标定两个部分。
内参标定:针对单个传感器,解决其内部参数,如摄像头的焦距和畸变,确保传感器数据在自身坐标系中的准确性。详细内容可见往期内容:《深入探讨:自动驾驶中的相机标定技术》
外参标定:在已知的世界坐标系下,解决不同传感器之间的相对位置和方向,确保它们数据的一致性。外参标定的准确性依赖于内参标定的精确性,只有每个传感器的内参被精确校准,我们才能准确地知道它们在世界坐标系中的相对位置。
在多传感器采集系统中做好统一时钟和统一坐标系后,就可以将这些数据进行融合了。关于具体做法,这里举一个简单的例子:
1、相机与LiDAR融合
在实现激光雷达与相机标定、运动补偿和时间同步后,通过多传感器深度融合,执行几何变换将三维点云数据投影至二维图像平面,实现物理空间到视觉空间的映射。最后,整合深度信息与图像像素数据,形成深度标签图像,从而为自动驾驶车辆的环境感知系统提供更为丰富和精确的数据支持。
2、融合方式
根据数据在整个流程中融合的不同位置,常见的融合方式可分为前融合、深度融合和后融合。
图2:常见的融合方式
前融合(Early-Fusion):是在最原始的层面上将不同传感器的数据进行整合。这种融合方式涉及直接在空间上对齐传感器数据,形成一个统一的多模态数据集。可以进行数据统一标识,降低信息损失。深度融合(Deep-Fusion):是在特征提取之后、决策之前进行的融合。这种融合方式涉及将不同传感器的数据在特征空间中进行组合,通常通过级联或元素相乘的方式实现。通过特征互补可以提高鲁棒性和提升泛化能力。后融合(Late-Fusion):是在各个传感器独立完成目标检测或分类等任务后,将它们的预测结果进行综合分析,以做出最终的决策。通过综合多个传感器的预测结果,提高决策准确性。可根据需要灵活添加或替换传感器模型。
在多传感器融合中,前融合、深度融合和后融合各有优势和适用场景。
前融合:在数据层面上实现早期整合,适合对原始数据依赖性较强的应用。深度融合:在特征层面上进行信息融合,适合需要特征互补的复杂感知任务。后融合:在目标层面上进行决策整合,适合需要最终决策优化的场景。在实际应用中,根据系统需求和传感器特性,选择合适的融合策略或多种策略的组合,以达到最佳的感知效果。