从BEVFormer到BEVFormer-v2:透视监督如何重塑BEV感知的骨干网络
1. BEVFormer的核心思想与局限性BEVFormer作为首个将Transformer引入鸟瞰图BEV感知的开创性工作其核心创新在于摆脱了对深度估计的强依赖。传统BEV方法需要先计算每个像素的深度再将2D特征抬升到3D空间这个过程容易因深度误差导致特征位置错乱。而BEVFormer通过设计可学习的BEV Query配合空间跨模态注意力和时序自注意力机制直接在BEV空间构建特征表示。具体实现上BEVFormer的工作流程可以分为三步多相机特征提取使用ResNet-101等传统2D骨干网络处理环视图像BEV特征构建通过Transformer将2D特征映射到BEV空间任务头处理基于BEV特征完成3D检测、地图分割等任务但实际使用中会发现两个明显问题第一是骨干网络的选择受限。虽然论文中使用了ResNet-101但实测发现像ConvNeXt这类现代图像骨干网络表现反而不如预期。第二是时序建模不够鲁棒特别是在处理动态物体时容易出现轨迹断裂。这些问题本质上是因为2D骨干网络缺乏3D感知能力导致BEV空间的特征构建成了无源之水。2. BEVFormer-v2的突破透视监督机制BEVFormer-v2最关键的创新就是引入了透视监督Perspective Supervision机制。这个设计的灵感来源于一个有趣的现象当使用ConvNeXt-XL这种在ImageNet上预训练的现代骨干时性能竟然不如参数量小得多的VoVNet-99后者使用自动驾驶数据预训练。这说明3D感知能力并非Transformer的专利2D骨干同样可以具备——只要给予适当的监督信号。透视监督的具体实现很有意思在骨干网络输出端增加一个透视3D检测头类似FCOS3D的结构这个检测头直接在透视图上进行密集预测预测结果会与BEV空间的最终输出形成联合监督这种设计相当于给2D骨干网络装上了3D眼镜。以前骨干网络就像蒙着眼睛提取特征现在通过透视视图上的监督信号它能直接看到深度、角度等3D信息。实测表明这种监督方式让ConvNeXt等现代骨干网络的性能提升了近20%。3. 技术细节深度解析3.1 透视监督的具体实现透视3D检测头的结构设计颇有讲究。它需要完成两项关键任务几何感知预测每个像素的深度分布和视角方向语义感知初步识别物体类别和粗略位置这个检测头采用类似FCOS3D的架构但做了三个重要改进多尺度特征融合利用FPN结构聚合不同层级的特征解耦预测头将深度预测与角度预测分离避免任务冲突动态正样本分配根据3D IoU动态调整正负样本阈值在训练时透视监督的损失函数包含三部分分类损失Focal Loss深度回归损失Laplacian Loss角度回归损失Smooth L1 Loss3.2 改进的时序建模BEVFormer-v2对时序模块的改造同样值得关注。原始版本简单地将历史BEV特征与当前帧对齐后拼接新版本则引入了特征变形Warping使用双三次插值精确对齐历史特征残差连接保留原始特征的同时学习运动变化自适应权重动态调整历史特征的贡献度这种设计特别适合处理突然出现的障碍物。在测试中对于突然切入的车辆v2版本的轨迹预测比v1稳定了37%。4. 混合Query编码的妙用BEVFormer-v2另一个精妙设计是混合Query编码机制。传统方法要么完全依赖预设的BEV Query要么完全依赖第一阶段的检测结果。v2版本创造性地将二者结合预设Query提供先验的空间布局信息动态Query来自透视检测头的预测结果融合机制通过注意力权重自动调节二者贡献这种混合编码方式在复杂路口场景表现尤为突出。在nuScenes数据集的交叉路口测试中它对远处小物体的召回率提升了15%。5. 实际部署中的经验在真实项目中部署BEVFormer-v2时有几个实用技巧骨干网络选择ConvNeXt-L在精度和速度间取得了很好平衡训练策略先单独训练透视检测头再联合微调数据增强特别需要加强光照变化的模拟量化部署注意BEV Query的数值范围控制有个容易踩的坑是透视头的学习率设置。由于它需要引导骨干网络学习3D特征初始学习率应该比主网络高2-3倍但在训练中期要及时衰减。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2448509.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!