《智能驾驶之激光雷达算法详解》4、LiDAR-Camera 的外参标定
<div> 在智能驾驶领域,由于相机数据与激光雷达数据间的高度互补性,两者的数据融合成为了研究热点。而实现高质量融合的关键之一,便是对二者进行精确的外参标定。本章将深入探讨3D激光雷达与2D相机(L-C)之间的外参标定方法。根据标定时的传感器运动状态,L-C标定可分为静态标定与动态标定;依据对标定物的需求,则可分为有标定物和无标定物(即自标定)两种方式。实时性与算法运行状态的差异,又将标定算法划分为离线标定与在线标定。在有标定物的场景中,常利用棋盘格、二维码标定板等快速在激光雷达坐标系与视觉坐标系中定位特征点,建立传感器间联系。在无标定物的情况下,自标定算法通过提取环境中的线特征、面特征等,利用特征匹配估计L-C外参。利用点云中的3D区域与图像中2D区域的对应关系也是一种有效的自标定方法。在车辆动态行驶过程中进行在线L-C外参标定,则面临更高挑战。业内主要通过最大化点云与图像的配准信息来估计标定参数,并构建非线性优化问题求解外参。根据信息提取方式的不同,研究主要分为边缘配准、互信息、分割等方向。当激光雷达与相机无重合视场时,通过分析运动轨迹并结合手眼模型,同样可求解L-C外参。Huang等人进一步应用了Gauss-Helmert等方法优化标定过程。</div><div> ILCC算法创新性地利用棋盘格标定板,通过Velodyne 32线激光雷达与Ladybug 3全景相机验证。ILCC算法精髓在于高效利用棋盘格信息,不局限于传统LCC的四个顶点,而是精准捕捉稀疏激光点云与图像中的棋盘格黑白交点,构建独特的匹配关系。通过结合棋盘格尺寸、栅格大小、激光反射强度与颜色对比,构建并优化损失函数,精确定位交点的三维坐标。随后,从全景图像中提取对应二维坐标,形成完整的3D-2D特征点匹配体系。ILCC算法首先运用UpnP算法快速获取初值,再依托LMU617算法的非线性优化能力,精确计算出最终的外参估计值。</div>
<div>特征交点提取, 点云分割在获取原始的3D激光点云后,ILCC算法将首先对其进行聚类划分。nCC算法结合平面度、激光点分布、边尺寸约束筛选棋盘格点云,棋盘路检测通过激光点个数、坐标值初步过滤标定板点集。根据标定板尺寸和激光雷达分辨率估算竖直标定板激光点个数。ILCC算法通过聚类的平面度特征和主成分分析方法筛选出平面特征的点云聚类。根据聚类的边界尺寸进一步筛选出符合条件的平面点集。ILCC算法通过分析点云分布的均匀性来筛选出标定板对应的点云簇。在获取棋盘格标定板对应的 3D 激光点云后,ILCC 算法基于点云的强度信息估计棋盘格黑白交点所处的位置。</div>
<div> 无标定物的L-C静态标定——PESC算法,由香港大学机械工程学院的C. Yuan等学者在2021年创新提出,该算法巧妙融合Livox AVIA半固态激光雷达与RGB相机技术,开创性地开发了Pixel-level Extrinsic Self-Calibration(PESC)像素级激光-视觉外参联合标定新方法。此算法突破传统依赖标定板的限制,通过捕捉并解析周边环境的自然边缘线等普适特征,在视觉与激光坐标系间建立精确的特征映射,实现传感器间外参的自主标定。其官方实现代码已开源至GitHub,便于学术研究与工业应用。PESC算法精心构建三大核心模块:(一)边缘特征提取:高效识别并提取图像与点云中的关键边缘信息;(二)特征关联匹配:精准匹配视觉与激光数据中的对应特征点,构建跨模态的关联桥梁;(三)非线性优化外参求解:基于强大的优化算法,精确计算并优化传感器间的外部参数。在边缘特征提取环节,PESC算法避免了传统方法中常见的零值映射问题。即便在摄像机视角覆盖而激光雷达因遮挡无法观测的复杂场景下,PESC依然能够稳健工作,通过智能算法筛选有效特征,确保标定过程的准确性与鲁棒性。这一创新不仅简化了标定流程,还显著提升了标定精度,为自动驾驶、机器人导航等领域提供了强有力的技术支持。</div>
<div> L-C动态在线标定新突破——AOCCL算法:斯坦福大学的Levinson与Thrun在2013年开创性地提出了AOCCL算法,实现了无需标定板的相机与激光雷达的自动在线标定(Automatic Online Calibration of Cameras and Lasers)。AOCCL算法的核心逻辑精妙而直接:在精确的外参标定下,激光雷达点云中深度突变的边缘特征,映射至图像平面后,应精准对应图像中的边缘轮廓。此算法不仅能在车辆行驶中实时追踪相机与激光雷达的外参变动,亦能在静态条件下,利用多帧点云与图像数据完成外参标定,展现了极高的灵活性与实用性。值得注意的是,实施动态标定时,确保激光雷达与相机的时钟同步至关重要,同时,为消除车辆运动对激光点云的潜在干扰,还需采用特定方法来校正运动畸变。在特征处理层面,AOCCL算法巧妙地在图像与点云世界中并行抽取边缘特征。对于图像部分,算法通过两大步骤精准定位边缘特征像素点:首先,将图像序列(I1至In)转换为灰度图E*,其中E*的每个像素值由原图对应像素与其8邻域点间绝对偏差的最大值确定,这一转换极大地凸显了图像中的边缘信息,为后续的特征匹配奠定了坚实基础。</div>
页:
[1]