戈壁滩上的辉煌 发表于 2024-9-12 21:25

《智能驾驶之激光雷达算法详解》13、多传感器融合 SLAM

<div>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;鉴于各传感器的工作特性及其局限性,单独依赖一种或两种传感器在复杂路况下往往难以确保高精度定位。例如,激光里程计在隧道、高架等环境下易受影响,而IMU与轮速计则受限于累积误差,难以独立提供可靠位置信息。GPS在特定场景如立交桥、隧道及高楼密集区则常遭遇信号丢失问题。视觉里程计则受天气、光照及动态环境变化影响较大,其稳定性亦受挑战。当前学术界与工业界正致力于通过多传感器融合技术,实现高精度、稳定且实时的定位解决方案。多传感器融合SLAM主要分为松耦合与紧耦合两大类别,其中紧耦合方式因能更充分融合各传感器信息,成为研究重点。</div>

<div>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;在紧耦合领域,已有多种创新算法涌现。如X.Za0等人在IROS 2019上提出的LIC-Fusion算法,基于MSCKF框架实现了激光雷达、IMU与相机的紧密协作。牛津大学D.wi油团队则依托因子图框架,融合了激光里程计、视觉里程计与IMU预积分因子,实现了高精度定位。香港大学Mars实验室更是在此基础上,提出了RLIVE与R&#39;LIVE算法,通过结合滤波与平滑优化技术,进一步提升了激光雷达、IMU与相机的融合定位精度与建图能力。为满足L4级智能驾驶等高级应用场景的需求,学者们还探索了结合高精点云地图的全局定位方法。百度团队通过误差状态卡尔曼滤波框架,实现了激光雷达、GNSS、IMU与先验点云地图的深度融合,实现了厘米级定位精度。图森未来则进一步挑战极限,尝试在无激光里程计的情况下,仅凭轮速计、IMU与先验点云地图,实现了无人物流卡车的高精度全局定位。在此背景下,特选激光雷达+IMU+视觉组合定位中的RPLIVE算法,以及图森未来在ICRA 2021上提出的基于激光雷达特征地图辅助的多传感器紧耦合定位算法进行深入探讨,以期洞悉其背后的原理与技术创新。</div>

<div>视觉、激光雷达、IMU融合的RLVE算法</div>

<div>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;RLVE算法,源自香港大学Man Li等人在IROS 2021的卓越贡献,是一种创新的实时传感器融合SLAM算法。该算法巧妙地将激光雷达、相机与IMU紧密集成于一个高效预处理模块中,随后通过现代优化技术实现精准定位与建图。Li团队凭借三种传感器的深度协同,使RLVE能够从容应对视觉失效及激光雷达里程计挑战,室内外测试中均展现出卓越的性能与成果。算法的核心流程清晰分为两大板块:里程计模块与因子图优化模块。里程计模块依托于先进的误差状态卡尔曼滤波框架,无缝融合激光雷达、相机与IMU数据,初步估算系统姿态,并分别针对各传感器特性进行优化输出。其独特之处在于,通过误差状态空间的迭代更新策略,将问题转化为最大化后验估计,运用高斯牛顿法高效求解。在激光雷达处理上,采用平衡特征点提取与运动补偿技术;相机端则运用快速角点提取与KLT光流跟踪,确保视觉信息的精确捕捉。为进一步提升视觉测量的精准度,因子图优化模块引入动态滑窗机制,对视觉地标、关键姿态及传感器间的时间偏差进行精细调整与优化,从而构建出更加精确与鲁棒的环境地图。RLVE解法以其创新的理念与卓越的性能,为SLAM领域树立了新的标杆。</div>

<div style="text-align: center;"></div>

<div>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;在智能驾驶任务中,高精度要求促使我们实时结合激光雷达、相机及IMU等传感器,以确保在复杂环境中,如隧道、桥梁等GPS信号受限的区域,定位算法的精准度、实时性和鲁棒性。为了实现长距离的绝对定位,学界提出并应用了基于多传感器紧耦合的定位算法(Tightly-Coupled Multi-Sensor Localization, TCML),这一创新在RA2D1会议上得以展示。TCML算法构建于因子图优化框架之上,巧妙地将IMU数据、轮速计信息与激光雷达点云地图的融合转化为一个优化问题,利用固定延平滑(fixed-lag smoothing)技术求解。具体而言,算法中,激光雷达点云与预先构建的地图特征相匹配,实现了对车辆全局位姿的估计;同时,结合车辆运动学模型和轮速计数据,精准捕捉车辆局部时刻的相对位姿变化。两者相辅相成,共同约束车辆状态的最优估计。</div>

<div style="text-align: center;"></div>

<div>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;图13-5清晰展示了TCML算法的整体流程,其关键传感器包括轮速编码器、IMU和激光雷达,而一张精细的激光雷达特征地图则是算法不可或缺的外部数据源。轮速编码器负责提供车辆速度的直接观测,IMU则用于计算帧间相对位姿变化,并作为系统状态的初步估计。激光点云在IMU校正运动畸变后,与地图特征精准匹配,从而得到系统位姿的精确估计。最终,TCML算法通过局部滑窗内的因子残差最小化,实现了传感器信息的紧耦合优化,采用固定间隔平滑策略,迭代提升系统位姿估计的精度,详细过程如图13-6所示。利用激光雷达、IMU与轮速计等多源传感器的紧密集成,实现长距离、高精度且鲁棒的实时定位技术。为缩减点云处理时间与计算负荷,TMFL算法巧妙地从密集点云地图中筛选稀疏特征点,并通过每帧激光点云的均匀采样策略,精简特征匹配点数量,同时确保定位精度不受损。在因子图优化框架下,该算法融合激光雷达特征、IMU预积分及轮速计速度信息,对车辆状态进行联合优化,并运用固定后平滑策略,简化优化难题,加速算法响应。</div>

<p><!--importdoc--></p>
页: [1]
查看完整版本: 《智能驾驶之激光雷达算法详解》13、多传感器融合 SLAM