引言
MMdetection3d:【3D目标检测】环境搭建(OpenPCDet、MMdetection3d)
MMdetection3d源码地址:https://github.com/open-mmlab/mmdetection3d/tree/main?tab=readme-ov-file
IS-Fusion源码地址:https://github.com/yinjunbo/IS-Fusion
1 MMdetection3d环境搭建
官网教程链接🔗:https://mmdetection3d.readthedocs.io/en/latest/get_started.html
 先准备好MMdetection3d的环境:【3D目标检测】环境搭建(OpenPCDet、MMdetection3d)
 **直接抄作业安装如下:**
# 0 安装依赖
sudo apt install wget git g++ cmake ffmpeg libsm6 libxext6
# 1 创建虚拟环境
conda create -n mmdet3d python=3.8
# 2 激活虚拟环境
conda activate mmdet3d
# 3 安装torch
pip install torch==1.10.0+cu113 torchvision==0.11.0+cu113 torchaudio==0.10.0 -f https://download.pytorch.org/whl/torch_stable.html
# 4 配置安装mmdetection3d
pip install openmim
# 下载的是mmdet3d是v1.3.0版本
git clone https://github.com/open-mmlab/mmdetection3d.git -b v1.3.0
cd mmdetection3d
# 使用mim可以自动配置mmcv,mmdet,mmengine
mim install -v -e .
# "-v" 指详细说明,或更多的输出
# "-e" 表示在可编辑模式下安装项目,因此对代码所做的任何本地修改都会生效,从而无需重新安装。
# 5 安装 cumm-cuxxx spconv-cuxxx
pip install cumm-cu113
pip install spconv-cu113
# 6 配置 mmdet3d中的BEVFusion
python projects/BEVFusion/setup.py develop
# 或者运行下面2句
# cd projects/BEVFusion
# pip install -v -e .
# 7 安装及查看相关库的版本
## 7.1 openlab相关库安装
mim install mmcv==2.1.0 -i https://pypi.tuna.tsinghua.edu.cn/simple
mim install mmdet==3.2.0 -i https://pypi.tuna.tsinghua.edu.cn/simple
mim install mmdet3d==1.3.0 -i https://pypi.tuna.tsinghua.edu.cn/simple
mim install mmengine==0.10.1 -i https://pypi.tuna.tsinghua.edu.cn/simple
## 7.2 openlab相关库版本
mim list
# 终端显示如下
mmcv       2.1.0      https://github.com/open-mmlab/mmcv
mmdet      3.2.0      https://github.com/open-mmlab/mmdetection
mmdet3d    1.3.0      /root/share/code/mmdetection3d
mmengine   0.10.1     https://github.com/open-mmlab/mmengine
## 7.2 torch相关库版本
pip list | grep torch
# 终端显示如下
torch                     1.10.0+cu113
torchaudio                0.10.0+rocm4.1
torchvision               0.11.0+cu113
 
2 nuScenes数据集准备
数据集下载参考🔗【3D目标检测】OpenPCDet——nuScenes数据集训练BEVFusion/TransFusion_L
 可以使用软连接将数据集链接到mmdetection3d/data文件夹下
ln -s /opt/data/DATASETS/nuscenes /opt/data/CNN_3D/mmdetection3d/data
 
├── data
│   ├── nuscenes
│   │   │── v1.0-trainval (or v1.0-mini if you use mini)
│   │   │   │── samples
│   │   │   │── sweeps
│   │   │   │── maps
│   │   │   │── v1.0-trainval 
 
重要!!!!!!
 如果是nuscenes-mini数据集,需要修改文件
 mmdet3d/datasets/nuscenes_dataset.py文件中的v1.0-trainval改成v1.0-mini即可
 nuscenes-full无需修改,如下图所示:
 
 生成pkl格式的数据集
cd ./mmdetection3d/tools
python create_data.py nuscenes --root-path ./data/nuscenes/v1.0-mini --out-dir ./data/nuscenes/v1.0-mini --extra-tag nuscenes --version v1.0-mini
 
或者直接修改create_data.py对应的输入参数,如下图所示:
 
 注意:修改./mmdetection3d/tools/dataset_converters/update_infos_to_v2.py文件
 dataroot = out_dir
 
 否则会报错如下:
 
 或者直接在终端运行:
python create_data.py nuscenes
 
成功生成标准数据显示如下:
 
 运行完后 data/nuscenes目录如下所示:
nuscenes
    ├── v1.0-mini
	    ├── maps
	    ├── nuscenes_dbinfos_train.pkl   # 新生成的文件
	    ├── nuscenes_gt_database         # 新生成的目录
	    ├── nuscenes_infos_train.pkl     # 新生成的文件
	    ├── nuscenes_infos_val.pkl       # 新生成的文件
	    ├── samples
	    ├── sweeps
	    └── v1.0-mini
 
3 BEVFusion
3.1 训练
复制一份配置文件projects/BEVFusion/configs/bevfusion_lidar_voxel0075_second_secfpn_8xb4-cyclic-20e_nus-3d.py重命名为bevfusion_lidar.py
1. 只训练lidar数据集
# 配置文件中的max_epochs=2, batch_size=1, num_workers=0
# 上面三个参数按需更改,前期测试环境是否正常,可以按上面数字设置
bash tools/dist_train.sh projects/BEVFusion/configs/bevfusion_lidar.py 1
'''
正常训练时,终端会打印信息如下:
...
12/13 17:56:37 - mmengine - INFO - Epoch(train) [1][150/408]  lr: 1.0551e-04  eta: 0:38:26  time: 0.9984  
data_time: 0.0137  memory: 21795  grad_norm: 16.1443  loss: 12.3859  loss_heatmap: 2.6139  
layer_-1_loss_cls: 3.9985  layer_-1_loss_bbox: 5.7735  matched_ious: 0.0343
'''
 
配置如图:
 
 成功训练如图:
 
 2. lidar和相机数据共同训练
## 2.1 预训练权重
# 因为图像特征提取层配置的swin-transform需要下载预训练权重, 如果网络出问题, 可以加上代码下载即可
# 在bevfusion_lidar-cam.py配置文件全局搜索https://github.com,并在该地址前面加上https://mirror.ghproxy.com/即可
## 2.2 训练
# bevfusion_lidar-cam.py配置文件是继承bevfusion_lidar.py所以batch_size,num_workers需要在bevfusion_lidar.py中修改
### 2.2.1分布式训练
bash tools/dist_train.sh projects/BEVFusion/configs/bevfusion_lidar-cam.py 1
### 2.2.2 单步训练 加载数据时比较慢,不是卡住了,只要报错和卡住就等着
python tools/train.py projects/BEVFusion/configs/bevfusion_lidar-cam.py
 
配置如下图:
 
 训练成功如图:
 
训练完成结果(权重,配置文件,log,vis_data)后会保存在work_dirs目录下
 官方提供了训练好的权重, 参考BEVFusion model
 图像预训练权重:Swin pre-trained model
3.2 测试
bash tools/dist_test.sh work_dirs/bevfusion_lidar-cam/bevfusion_lidar-cam.py work_dirs/bevfusion_lidar-cam/epoch_2.pth 1
 
3.3 可视化
python projects/BEVFusion/demo/multi_modality_demo.py demo/data/nuscenes/n015-2018-07-24-11-22-45+0800__LIDAR_TOP__1532402927647951.pcd.bin demo/data/nuscenes/ demo/data/nuscenes/n015-2018-07-24-11-22-45+0800.pkl  work_dirs/bevfusion_lidar-cam/bevfusion_lidar-cam.py work_dirs/bevfusion_lidar-cam/epoch_6.pth --cam-type all --score-thr 0.2 --show
 
可视化结果如下:
 
 



















