YOLOv11 OBB实战:手把手构建旋转目标检测数据集
1. 为什么需要旋转目标检测在传统的目标检测任务中我们通常使用水平矩形框HBB来标注物体。这种标注方式简单直接但对于某些特定场景下的物体检测效果并不理想。比如在遥感图像中飞机、船只等物体往往以不同角度停放在文本检测中文字行可能以任意方向排列在密集场景中物体相互遮挡时水平框会包含大量背景信息。旋转目标检测OBB使用带角度的矩形框来标注物体能够更精确地框选目标。YOLOv11 OBB版本就是专门为这类场景优化的模型。我去年在一个工业零件检测项目中就深有体会当螺丝、螺母等小零件散乱摆放时使用旋转框标注的检测精度比传统方法提升了近30%。2. 数据准备与增强技巧2.1 获取基础图像数据建议从实际应用场景采集原始图像。如果是做遥感检测可以使用DOTA数据集的部分样本做文本检测可以考虑ICDAR数据集。我在实践中发现即使是少量真实场景图片50-100张经过适当增强也能训练出不错的效果。一个实用的技巧是使用OpenCV进行多角度拍摄import cv2 import numpy as np def rotate_image(img, angle): h, w img.shape[:2] M cv2.getRotationMatrix2D((w/2,h/2), angle, 1) return cv2.warpAffine(img, M, (w,h))2.2 安装roLabelImg标注工具roLabelImg是支持旋转标注的改进版LabelImg安装时要注意Python环境兼容性git clone https://github.com/cgvict/roLabelImg cd roLabelImg pip install pyqt5 lxml # 必须先安装这两个依赖 pyrcc5 -o resources.py resources.qrc python roLabelImg.py常见问题排查如果遇到PyQt5报错尝试pip install --upgrade pyqt5Windows用户建议使用Anaconda环境Mac用户可能需要先安装QTbrew install qt3. 标注流程实战3.1 旋转标注操作指南打开roLabelImg后按以下步骤操作使用Open Dir加载图像目录快捷键说明w创建旋转框e调整框角度Ctrls保存当前标注d/a切换下一张/上一张标注时建议遵循长边作为基准边角度范围控制在[-90°,90°]对于对称物体统一角度方向3.2 标注文件格式解析生成的XML文件包含关键信息object namevehicle/name robndbox cx512.3/cx cy256.8/cy w124.5/w h62.7/h angle-45.0/angle /robndbox /object其中(cx,cy)是中心点坐标(w,h)是宽高angle是旋转角度度制。我建议在标注初期就建立规范的类别名称列表避免后期合并的麻烦。4. 数据格式转换全流程4.1 XML转DOTA格式DOTA格式采用四点坐标表示旋转框x1 y1 x2 y2 x3 y3 x4 y4 class_name difficulty转换脚本核心逻辑def convert_to_dota(xml_path, txt_path): tree ET.parse(xml_path) root tree.getroot() with open(txt_path, w) as f: for obj in root.findall(object): robndbox obj.find(robndbox) cx float(robndbox.find(cx).text) cy float(robndbox.find(cy).text) w float(robndbox.find(w).text) h float(robndbox.find(h).text) angle float(robndbox.find(angle).text) # 计算四个顶点坐标 points calculate_rotated_points(cx, cy, w, h, angle) line .join([str(p) for p in points]) obj.find(name).text 0\n f.write(line)4.2 DOTA转YOLO-OBB格式YOLO-OBB使用归一化的五参数表示法class_index xc yc w h angle关键转换步骤坐标归一化处理角度转换为弧度制类别索引映射实际项目中我发现最容易出错的是坐标系的转换。DOTA使用图像坐标系左上角原点而YOLO使用相对坐标需要特别注意宽高的归一化计算。5. 数据集划分与配置5.1 智能数据集划分推荐使用分层抽样保持类别分布from sklearn.model_selection import train_test_split # 按类别分组 groups {} for img in images: cls get_dominant_class(img.label) groups.setdefault(cls, []).append(img) # 分层划分 train_val [] test [] for cls, samples in groups.items(): tv, te train_test_split(samples, test_size0.1) train_val.extend(tv) test.extend(te) # 二次划分训练/验证集 train, val train_test_split(train_val, test_size0.22) # 0.2/0.9≈0.225.2 配置文件关键参数数据集YAML文件示例path: ../datasets/Ball_Point_Pen train: images/train val: images/val test: images/test names: 0: Ball_Point_Pen 1: Pen_Cap 2: Clip模型配置文件修改要点nc类别总数depth_multiple网络深度系数width_multiple网络宽度系数anchors建议使用官方预置值6. 模型训练与调优6.1 训练启动参数详解完整的训练命令示例model.train( dataconfigs/dataset.yaml, epochs300, batch16, # 根据GPU显存调整 imgsz640, optimizerAdamW, lr00.001, weight_decay0.05, warmup_epochs3, box7.5, # 调整框回归权重 cls0.5, # 分类损失权重 degrees180.0, # 允许的最大旋转角度 flipud0.5 # 上下翻转增强概率 )6.2 常见训练问题解决损失震荡大降低学习率增加warmup周期检查数据标注质量验证集mAP低调整数据增强参数检查数据集划分是否合理尝试更深的网络结构显存不足减小batch size使用更小的输入尺寸启用混合精度训练7. 模型部署与推理7.1 预测脚本优化高效预测的推荐配置results model.predict( sourceinput.jpg, conf0.25, # 置信度阈值 iou0.45, # NMS阈值 imgsz640, augmentTrue, # 测试时增强 max_det100, # 最大检测数 save_txtTrue # 保存OBB结果 )7.2 结果可视化技巧使用OpenCV绘制旋转框def draw_rotated_box(img, points, color(0,255,0), thickness2): pts np.array(points, np.int32).reshape((-1,1,2)) cv2.polylines(img, [pts], isClosedTrue, colorcolor, thicknessthickness) return img对于批量处理建议使用多进程加速from multiprocessing import Pool def process_image(path): results model(path) # 保存结果... with Pool(4) as p: # 4个进程 p.map(process_image, image_paths)在实际项目中我发现将预测结果转为GeoJSON格式可以方便与GIS系统集成这对遥感应用特别有用。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2483505.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!