3D视觉工坊 彻底剖析激光-视觉-IMU-GPS融合算法:理论推导、代码讲解和实战
3D视觉工坊 彻底剖析激光-视觉-IMU-GPS融合算法:理论推导、代码讲解和实战

 

【资源介绍】:

自主导航是机器人与自动驾驶的核心功能,而SLAM技术是实现自主导航的前提与关键。现有的机器人与自动驾驶车辆往往会安装激光雷达,相机,IMU,GPS等多种模态的传感器,而且已有许多优秀的激光SLAM与视觉SLAM算法。但是每种模态的传感器都有其优点和缺点,如相机只能测量2D图像,且容易受光照和夜晚的影响;激光雷达获取的3D点云较为稀疏,而且在长走廊,隧道,以及开阔场景中容易发生退化;GPS测量极易受到环境的干扰;每种模态的传感器只能在适当的环境中发挥积极的作用。因此,我们希望以适当的方式融合多种模态的测量,通过优势互补,使SLAM算法能够在各种挑战性环境下持续输出鲁棒且精确的估计结果。因此无论是学术界还是工业界,多模态融合是未来SLAM发展的必然趋势。

【资源目录】:

├──1、公开课多模态融合SLAM技术分享.mp4 280.89M
├──2、传感器介绍及分析及激光与视觉SLAM算法框架解析.mp4 964.07M
├──3、多传感器外参标定原理与代码讲解.mp4 871.83M
├──4、激光—惯性子系统(LIS)代码精读.mp4 664.91M
├──5、视觉—惯性子系统(VIS)代码精读.mp4 1.29G
├──6、激光—视觉—惯性数据融合与优化融合.mp4 923.09M
├──7、LVI—SAM代码实战与评估.mp4 3.06G
└──8、大作业讲解视频.mp4 430.27M

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。