《智能驾驶之激光雷达算法详解》5.多传感器SLAM
<div class='showpostmsg'><div>本书第13章是关于多传感器融合SLAM算法的相关讲解,主要介绍了多传感器融合在智能车辆定位中的应用。由于单一传感器存在工作特性和局限性,处理不了复杂路况,因此多传感器融合实现高精度、稳定、实时的定位成为学术界和工业界的热点之一。多传感器融合 SLAM 有松耦合和紧耦合两种方式,紧耦合方式精度和稳定性较高,是目前研究重点,如 LIC-Fusion 算法、基于因子图框架的算法、R2LIVE 算法及 LVI-SAM 算法等。此外,一些学者结合事先构建的高精点云地图提供全局定位信息,如百度的相关研究及图森未来的研究。</div><div>本章主要讲解了视觉、激光雷达、IMU融合的R2LIVE 算法和融合点云地图的TMFL算法。其中R2LIVE 算法由里程计模块和因子图优化模块两部分组成。里程计模块基于迭代误差状态卡尔曼滤波框架实现激光雷达、相机和 IMU 三种观测数据紧耦合,得到系统位姿状态初步估计并按各自传感器频率输出。该框架采用误差状态卡尔曼滤波器思想在误差状态空间进行状态传播,结合迭代误差状态卡尔曼滤波器更新方式,转换为最大化后验估计问题并用高斯牛顿法求解。在激光雷达侧位姿初步估计时使用基于平面特征点提取和运动补偿的方法;在相机侧位姿初步估计时使用快速角点提取和 KLT 光流跟踪的方式。因子图优化模块使用基于动态滑窗的因子图方法实现对视觉路标、关键帧位姿以及相机相对激光雷达和 IMU 时间偏差的优化。</div>
<div></div>
<div>在 L4 级智能驾驶任务中,为保证定位算法的精度、实时性和鲁棒性,一些学者考虑引入高精地图实现长距离绝对定位。图森未来的 L. Pan 等在 ICRA 2021 会议上提出基于激光雷达特征地图辅助的多传感器紧耦合定位(TMFL)算法,该算法基于因子图优化框架实现 IMU、轮速计与激光点云地图之间的紧耦合,将车辆位姿估计问题转化为优化问题,用固定延迟平滑方式在动态滑窗内求解。在 TMFL 算法中,当前帧激光点云和激光雷达特征地图的匹配实现全局位姿估计,基于车辆运动学模型和 IMU / 轮速计数据得到局部相对位姿变化,二者联合构成对车辆状态的最终约束。</div>
<div></div>
<div>其中R2LIVE 算法在github中有开源代码可以供查阅:</div>
<div><a href="https://github.com/hku-mars/r2live">https://github.com/hku-mars/r2live</a></div>
<div></div>
<div></div>
<p><!--importdoc--></p>
</div><script> var loginstr = '<div class="locked">查看本帖全部内容,请<a href="javascript:;" style="color:#e60000" class="loginf">登录</a>或者<a href="https://bbs.eeworld.com.cn/member.php?mod=register_eeworld.php&action=wechat" style="color:#e60000" target="_blank">注册</a></div>';
if(parseInt(discuz_uid)==0){
(function($){
var postHeight = getTextHeight(400);
$(".showpostmsg").html($(".showpostmsg").html());
$(".showpostmsg").after(loginstr);
$(".showpostmsg").css({height:postHeight,overflow:"hidden"});
})(jQuery);
} </script><script type="text/javascript">(function(d,c){var a=d.createElement("script"),m=d.getElementsByTagName("script"),eewurl="//counter.eeworld.com.cn/pv/count/";a.src=eewurl+c;m.parentNode.insertBefore(a,m)})(document,523)</script> <p>视觉、激光雷达、IMU融合的R2LIVE 算法和融合点云地图的TMFL算法,这玩意本来就很深奥的</p>
页:
[1]