视觉+激光雷达+惯性
- 1. LVI-SAM(Laser-Visual-Inertial SLAM)
- 2. MMF-LVINS(Multi-Modal Feature-based LVINS)
- 3. FAST-LIVO(Fast LiDAR-Inertial-Visual Odometry)
- 4. CamVox
- 5. Coco-LIC
- 6. FAST-LIO2
- 7. SLICT(Surfel-Based LiDAR-Inertial Mapping)
- 总结与对比
以下是对视觉(Visual)、激光雷达(LiDAR)和惯性导航(IMU)融合的SLAM算法的汇总,涵盖原理、公式及开源项目链接:
1. LVI-SAM(Laser-Visual-Inertial SLAM)
- 原理:
由MIT团队开发的紧耦合多传感器融合框架,包含视觉惯导(VIO)和激光惯导(LIO)两个子系统。VIO利用激光雷达提供深度信息,LIO依赖VIO的初始位姿进行点云匹配,两者通过因子图联合优化。当某一子系统失效时,另一系统仍可独立工作,提升鲁棒性。 - 关键技术:
- 视觉闭环检测优化激光雷达地图。
- 基于IMU预积分、滑窗优化的紧耦合策略。
- 公式:
状态估计通过因子图优化,目标函数为: