LV-DOT —— 用于自主机器人导航的激光雷达-视觉动态障碍物检测与跟踪文献解读
LV-DOT: LiDAR-Visual Dynamic Obstacle Detection and Tracking for Autonomous Robot Navigation文献信息标题LV-DOT: LiDAR-visual dynamic obstacle detection and tracking for autonomous robot navigation作者Zhefan Xu, Haoyu Shen, Xinming Han, Hanyu Jin, Kanlong Ye, Kenji Shimada (Carnegie Mellon University)发表arXiv:2502.20607v1 [cs.RO], 2025年2月28日开源代码https://github.com/Zhefan-Xu/LV-DOT实验视频https://youtu.be/rRvgTulWqvk一、研究背景与关键科学问题1.1 研究背景自主机器人在室内环境中执行导航任务时对动态障碍物的准确感知是保障安全运行的核心前提。近年来尽管计算机视觉与自动驾驶领域已涌现出大量高精度的三维目标检测与跟踪方法但这些方法通常依赖昂贵的传感器组合如高线束激光雷达、高分辨率相机阵列以及高性能GPU进行大规模神经网络推理难以直接迁移到计算资源极度受限的室内移动机器人平台。为此基于机载相机或轻量型激光雷达的轻量化感知算法逐渐成为研究热点。然而单一传感器方案存在固有的物理局限性相机可靠深度感知范围通常不超过5米视场角FOV受限且深度数据噪声较大激光雷达更新频率低、点云稀疏缺乏丰富的视觉纹理特征容易导致误检。1.2 关键科学问题与技术挑战本文将室内移动机器人动态障碍物感知的核心挑战归纳为以下三方面计算资源受限下的实时性挑战不同于配备强大GPU的自动驾驶车辆移动机器人如微型四旋翼无人机的机载算力极为有限导致基于大型深度学习网络的检测方法难以实时运行。复杂环境下的检测精度挑战在杂乱室内环境中仅依靠单一传感器进行障碍物检测会产生大量误检false positives与漏检false negatives。无论是基于图像的方法、点云聚类方法还是地图更新方法都难以在精度与效率之间取得良好平衡。动态/静态分类的鲁棒性挑战由于传感器噪声与定位误差从检测到的障碍物中准确识别出真正的动态障碍物十分困难。现有基于遮挡原理occlusion或占据地图occupancy map更新的方法往往过于保守导致将静态障碍物误判为动态引发不必要的高延迟避障响应。二、研究方法与技术路线2.1 总体框架LV-DOT 是一种多传感器融合的动态障碍物检测与跟踪框架其系统架构如图2所示。框架接收机载激光雷达、RGB-D相机以及机器人里程计三类输入依次经过四个核心模块处理激光雷达障碍物检测模块LiDAR Obstacle Detection视觉障碍物检测模块Visual Obstacle Detection激光雷达-视觉融合模块LiDAR-Visual Fusion跟踪与动态识别模块Tracking and Dynamic Identification最终输出经分类后的动态障碍物三维包围盒及其状态估计位置、速度、加速度。2.2 激光雷达障碍物检测LiDAR Detection该模块的目标是从每一帧激光雷达扫描中提取未分类的三维轴对齐包围盒axis-aligned bounding boxes, AABBs。处理流程如下降采样滤波距离滤波Range Filter仅保留机器人一定范围内的点并将其转换至世界坐标系概率距离滤波Distance Filter基于指数概率模型控制点的保留密度使近距离区域保留更多点、远距离区域更稀疏从而在计算负载与感知精度之间取得平衡Pdist(pi,probot)exp(−∥pi−probot∥2σdist2) P_{\text{dist}}(p_i, p_{\text{robot}}) \exp\left(-\frac{\|p_i - p_{\text{robot}}\|^2}{\sigma_{\text{dist}}^2}\right)Pdist(pi,probot)exp(−σdist2∥pi−probot∥2)体素滤波Voxel Filter将总点数限制在Nmax3000N_{\max}3000Nmax3000以内确保实时性。聚类与包围盒提取采用经典DBSCAN密度聚类算法对降采样后的点云进行聚类每个聚类簇即对应一个障碍物。通过计算簇在三维世界坐标系各轴上的最小/最大值直接提取轴对齐包围盒的中心与尺寸。2.3 视觉障碍物检测Visual Detection视觉检测模块分为深度检测与颜色检测两个子模块分别服务于不同的融合目标。2.3.1 视觉深度检测Visual Depth Detection深度检测模块的功能与激光雷达模块类似生成未分类的三维包围盒但运行频率更高、近距离精度更好。由于相机深度数据噪声显著直接聚类会产生大量误检因此本文采用**集成检测Ensemble Detection**策略融合两个低精度但高效率的检测器DBSCAN 检测器将深度图像反投影为三维点云经体素降采样后使用 DBSCAN 聚类并计算三维包围盒U-depth 检测器直接从深度图像生成 U-depth 图距离直方图的鸟瞰图表示利用文献[12]中的线分组方法提取障碍物的厚度与宽度再通过深度连续性分析计算高度最终生成二维包围盒并反投影至三维空间。集成策略计算两个检测器输出包围盒的三维 IoUIntersection over Union仅保留 IoU 超过用户定义阈值的匹配结果其余视为误检剔除。匹配成功的包围盒通过计算最小外接包围盒进行融合得到最终深度检测结果。2.3.2 视觉颜色检测Visual Color Detection颜色检测模块直接利用 RGB 图像识别动态障碍物输出二维图像平面上的包围盒。具体实现采用预训练的轻量级深度学习检测器如YOLOv11通过预设类别如行人筛选出动态目标。该模块的结果主要用于后续融合阶段对动态障碍物的精确定位与分类。2.4 激光雷达-视觉检测融合LiDAR-Visual Fusion融合模块整合三类检测结果通过算法1所示的融合策略生成更精确的障碍物包围盒SlidarS_{\text{lidar}}Slidar激光雷达三维检测提供360°长距离感知Svisual3DS_{\text{visual3D}}Svisual3D视觉深度三维检测提供高频率近距离感知Svisual2DS_{\text{visual2D}}Svisual2D视觉颜色二维检测提供基于语义类别的动态目标识别。融合步骤误检抑制遍历视觉深度检测结果与激光雷达三维包围盒进行 IoU 匹配。若匹配成功计算两者的最小外接包围盒作为融合结果未匹配的视觉检测视为误检并剔除。过合并拆分激光雷达与深度聚类可能将相邻障碍物合并为单个过大的包围盒。对此将融合后的三维包围盒重投影至二维图像平面与颜色检测的二维包围盒进行 IoU 比对。若一个重投影框匹配到多个颜色检测框则按颜色框的位置将其拆分为多个小包围盒再反投影回三维空间。全向补全将位于相机视场之外的激光雷达检测直接加入最终输出确保360°无盲区。2.5 跟踪与动态识别Tracking Dynamic Identification2.5.1 特征关联Feature-based Association为实现跨帧障碍物关联本文构造了包含10维特征的特征向量f(oi)[pos(oi)dim(oi)len(oi)std(oi)]T∈R10 f(o_i) \begin{bmatrix} \text{pos}(o_i) \text{dim}(o_i) \text{len}(o_i) \text{std}(o_i) \end{bmatrix}^T \in \mathbb{R}^{10}f(oi)[pos(oi)dim(oi)len(oi)std(oi)]T∈R10其中包含包围盒的位置、尺寸、内部点云数量以及点云标准差。通过计算当前帧与前一帧特征向量间的加权余弦相似度并结合 IoU 阈值验证有效避免了基于最近中心点匹配常见的错配问题。2.5.2 卡尔曼滤波状态估计对关联成功的障碍物采用卡尔曼滤波器估计其状态位置、速度、加速度。运动模型采用恒加速度模型constant acceleration modelXt∣t−1AXt−1Q X_{t|t-1} A X_{t-1} QXt∣t−1AXt−1Q观测模型通过检测位置差分估计速度与加速度VtPt−Pt−1δt,AtVt−Vt−1δt V_t \frac{P_t - P_{t-1}}{\delta t}, \quad A_t \frac{V_t - V_{t-1}}{\delta t}VtδtPt−Pt−1,AtδtVt−Vt−12.5.3 动态障碍物分类本文设计了两类互补的动态判定机制满足任一条件即标记为动态视觉语义校验将卡尔曼滤波后的三维包围盒重投影至图像平面与颜色检测的二维动态目标框计算 IoU。若 IoU 超过阈值则判定为动态。运动学点云位移校验初筛卡尔曼滤波估计的速度幅值超过阈值精筛对包围盒内每一点计算其与上一帧点云中最近点的距离。若多数点的位移超过阈值则确认为动态否则判为静态。该双重校验机制有效抑制了由定位噪声引起的速度估计误差显著提升了动态识别的鲁棒性。三、实验设计与评估3.1 实验平台与数据集硬件平台轻量级四旋翼无人机搭载 Intel RealSense D435i RGB-D 相机FOV: 87°×58°与 Livox Mid-360 激光雷达FOV: 360°×59°机载计算单元为 NVIDIA Jetson Orin NX。定位采用 Fast-LIO2 激光雷达惯性里程计。软件基于 ROS 与 C 实现。数据集由于现有自动驾驶数据集KITTI、nuScenes面向室外场景且 DOALS 数据集仅有激光雷达数据作者自建了室内数据集。该数据集涵盖7种不同室内场景及2组动作捕捉实验共635帧人工标注数据采样间隔1秒。3.2 对比方法与评估指标选取两个代表性的轻量级激光雷达动态检测算法作为基准Dynablox[7]基于体素地图状态更新的动态物体检测M-detector[6]基于遮挡原理的动态点检测。评估指标包括Precision精确率、Recall召回率、F1 Score平均位置误差Positional Error在不同 IoU 阈值0.3 / 0.5 / 0.7下进行三维包围盒级别的定量评估。3.3 定量结果方法IoU0.3 (F1)IoU0.5 (F1)IoU0.7 (F1)位置误差Dynablox [7]0.4020.3630.2770.124mM-detector [6]0.7340.6780.5690.094mLV-DOT w/o visual0.7870.7400.5990.091mLV-DOT w/o LiDAR0.2920.2740.2380.129mLV-DOT (Ours)0.7940.7640.6410.093m实验结果表明LV-DOT 在所有 IoU 阈值下均取得最高的 F1 分数综合性能优于两个基准方法M-detector 召回率较高但精确率偏低常将静态障碍物误判为动态Dynablox 针对稠密激光雷达设计在轻量型稀疏激光雷达上表现不佳消融实验显示去除视觉模块后召回率明显下降去除激光雷达模块后性能急剧退化验证了多传感器融合的必要性。3.4 实时性能各模块平均运行时间如下模块平均耗时 (ms)标准差 (ms)激光雷达检测8.344.15视觉深度检测10.223.46视觉颜色检测 (YOLO)34.150.91激光雷达-视觉融合0.400.13跟踪与识别2.290.75由于各模块可并行执行系统整体可达到实时运行要求视觉颜色检测接近30Hz满足实际导航任务对动态障碍物感知的时效性需求。3.5 物理机器人实验在真实环境中开展了两类验证实验悬停避障实验四旋翼悬停于固定位置多名行人主动走向无人机系统实时检测并跟踪动态行人引导无人机成功躲避。路径跟踪避障实验无人机沿预设路径飞行行人主动阻挡路径系统在保证导航效率的同时实现安全避障。实验视频验证了 LV-DOT 在真实动态场景中的实用性与可靠性。四、主要创新点与学术贡献4.1 核心创新点轻量级多传感器融合感知框架首次面向室内移动机器人平台系统性地融合轻量型激光雷达Livox Mid-360与 RGB-D 相机的互补优势激光雷达提供360°长距离高精度深度感知相机提供高频率近距离稠密深度与丰富视觉语义特征。该框架以 ROS 包形式完全开源具有良好的可复现性与工程实用价值。鲁棒的集成检测与融合策略提出基于 IoU 匹配的集成检测融合算法通过多检测器互校验抑制单一传感器的误检进一步利用二维语义检测结果对三维聚类过合并问题进行拆分修正显著提升了复杂场景下的检测精度。双重校验的动态障碍物分类机制结合视觉语义重投影与卡尔曼滤波运动估计点云位移分析设计了互补的动态判定策略。该机制有效克服了单一运动学阈值方法在传感器噪声下的不稳定性实现了更鲁棒的动态/静态分类。4.2 学术贡献问题层面明确指出了室内移动机器人动态障碍物感知中计算受限-精度需求-鲁棒分类三者之间的矛盾并通过多传感器融合与轻量级工程优化给出了系统性解决方案。方法层面将传统点云处理DBSCAN、体素滤波、经典计算机视觉U-depth、YOLO与现代状态估计卡尔曼滤波有机结合提出了一套不依赖重型深度学习模型的高效感知流水线。实验层面构建了面向室内移动机器人的多场景标注数据集并在真实四旋翼平台上完成了从感知到导航闭环的完整验证为后续研究提供了可靠的基准与参考。五、局限性与未来展望作者在文中也坦诚指出了当前框架的局限性当障碍物过于接近激光雷达且位于相机视场之外时包围盒关联可能失败动态障碍物间发生遮挡时被遮挡目标可能丢失跟踪系统仍存在少量误检与漏检需进一步提升可靠性。未来工作可围绕以下方向展开引入时序一致性约束与更鲁棒的数据关联算法如深度特征匹配以改善遮挡场景下的跟踪连续性探索基于注意力机制或轻量化 Transformer 的融合策略在保持实时性的同时进一步提升检测精度将框架扩展至多机协同感知场景利用分布式观测提升动态环境理解的全面性。六、总结LV-DOT 是一项面向室内自主机器人导航的激光雷达-视觉动态障碍物检测与跟踪研究。该工作针对移动机器人计算资源受限、单传感器感知能力不足以及动态分类鲁棒性差等核心挑战提出了一个融合激光雷达360°长距离感知与相机高频率语义感知的轻量级框架。通过集成检测、多源融合、特征关联跟踪以及双重动态校验等关键技术LV-DOT 在自建数据集与真实四旋翼平台上均展现出优异的实时性能与感知精度为室内动态环境下的机器人安全导航提供了可靠的技术支撑。该框架已开源具有较高的工程实用价值与学术参考意义。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2553721.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!