YOLO12模型迁移学习教程:自定义数据集训练与WebUI部署
YOLO12模型迁移学习教程自定义数据集训练与WebUI部署1. 引言目标检测是计算机视觉领域的核心任务之一而YOLO系列模型一直是这个领域的明星选手。最新发布的YOLO12带来了全新的以注意力为中心的架构在保持实时性能的同时显著提升了检测精度。但对于大多数实际应用场景我们往往需要在特定领域的数据集上对模型进行微调才能获得最佳效果。本文将手把手教你如何使用自定义数据集对YOLO12模型进行迁移学习并将训练好的模型集成到WebUI系统中实现从数据准备到部署上线的完整流程。无论你是刚接触目标检测的新手还是有一定经验的开发者都能从本教程中获得实用的知识和技巧。2. 环境准备与快速部署2.1 系统要求在开始之前确保你的系统满足以下基本要求Python 3.8或更高版本至少8GB RAM推荐16GB以上NVIDIA GPU推荐RTX 3060或更高配置CUDA 11.7或更高版本2.2 安装必要依赖首先创建并激活虚拟环境conda create -n yolo12 python3.9 conda activate yolo12安装Ultralytics库和WebUI相关依赖pip install ultralytics pip install streamlit torch torchvision opencv-python pillow2.3 验证安装运行以下代码检查环境是否配置正确import torch from ultralytics import YOLO print(fPyTorch版本: {torch.__version__}) print(fCUDA可用: {torch.cuda.is_available()}) print(fGPU名称: {torch.cuda.get_device_name(0)}) # 测试YOLO12模型加载 model YOLO(yolo12n.pt) print(YOLO12模型加载成功)3. 自定义数据集准备3.1 数据格式要求YOLO12支持多种标注格式推荐使用YOLO格式图像文件JPG或PNG格式标注文件与图像同名的.txt文件标注格式class_id center_x center_y width height归一化坐标3.2 数据集目录结构建议按以下结构组织你的数据集custom_dataset/ ├── images/ │ ├── train/ │ ├── val/ │ └── test/ └── labels/ ├── train/ ├── val/ └── test/3.3 创建数据集配置文件创建custom_data.yaml配置文件# 数据集路径 path: ./custom_dataset train: images/train val: images/val test: images/test # 类别数量 nc: 3 # 类别名称 names: [cat, dog, person] # 下载地址可选 download:4. 迁移学习训练4.1 加载预训练模型YOLO12提供了多种规模的预训练模型根据你的需求选择合适的版本from ultralytics import YOLO # 根据需求选择模型规模 model YOLO(yolo12n.pt) # 轻量级适合移动设备 # model YOLO(yolo12s.pt) # 平衡型通用场景 # model YOLO(yolo12m.pt) # 高性能精度优先4.2 配置训练参数# 训练配置 training_config { data: custom_data.yaml, epochs: 100, imgsz: 640, batch: 16, optimizer: auto, lr0: 0.01, # 初始学习率 lrf: 0.01, # 最终学习率 momentum: 0.937, weight_decay: 0.0005, warmup_epochs: 3.0, warmup_momentum: 0.8, box: 7.5, # 边界框损失权重 cls: 0.5, # 分类损失权重 dfl: 1.5, # 分布焦点损失权重 save: True, save_period: 10, # 每10个epoch保存一次 device: 0, # 使用GPU 0 }4.3 开始训练# 开始训练 results model.train(**training_config) # 保存最佳模型 best_model YOLO(./runs/detect/train/weights/best.pt)4.4 训练过程监控训练过程中你可以实时监控以下指标损失曲线观察训练损失和验证损失的变化mAP指标监控模型精度提升情况学习率变化确保学习率调度正常GPU利用率检查硬件资源使用情况5. 模型评估与优化5.1 评估模型性能训练完成后使用验证集评估模型# 在验证集上评估 metrics model.val() print(fmAP50-95: {metrics.box.map}) print(fmAP50: {metrics.box.map50}) print(fPrecision: {metrics.box.mp}) print(fRecall: {metrics.box.mr})5.2 模型优化技巧如果模型性能不理想可以尝试以下优化策略# 数据增强策略 augmentation_config { hsv_h: 0.015, # 色调增强 hsv_s: 0.7, # 饱和度增强 hsv_v: 0.4, # 亮度增强 translate: 0.1, # 平移增强 scale: 0.5, # 缩放增强 flipud: 0.0, # 上下翻转 fliplr: 0.5, # 左右翻转 mosaic: 1.0, # 马赛克增强 mixup: 0.0, # MixUp增强 } # 重新训练时加入数据增强 training_config.update(augmentation_config)6. WebUI系统部署6.1 创建Streamlit应用创建一个简单的Web界面用于模型推理# app.py import streamlit as st import cv2 import numpy as np from PIL import Image from ultralytics import YOLO import tempfile import os # 设置页面标题 st.set_page_config(page_titleYOLO12目标检测系统, layoutwide) # 加载训练好的模型 st.cache_resource def load_model(): return YOLO(./runs/detect/train/weights/best.pt) model load_model() # 上传图像 uploaded_file st.file_uploader(选择图像文件, type[jpg, jpeg, png]) if uploaded_file is not None: # 读取图像 image Image.open(uploaded_file) st.image(image, caption原始图像, use_column_widthTrue) # 转换为OpenCV格式 img_array np.array(image) img_array cv2.cvtColor(img_array, cv2.COLOR_RGB2BGR) # 运行推理 results model(img_array) # 绘制检测结果 annotated_frame results[0].plot() annotated_frame cv2.cvtColor(annotated_frame, cv2.COLOR_BGR2RGB) # 显示结果 st.image(annotated_frame, caption检测结果, use_column_widthTrue) # 显示检测统计信息 st.subheader(检测统计) for result in results: st.write(f检测到 {len(result.boxes)} 个目标) if len(result.boxes) 0: st.write(检测详情:) for box in result.boxes: cls_id int(box.cls[0]) conf float(box.conf[0]) st.write(f- {model.names[cls_id]}: 置信度 {conf:.2f})6.2 视频流处理添加实时视频处理功能# 实时摄像头检测 if st.button(开启摄像头检测): cap cv2.VideoCapture(0) stframe st.empty() while cap.isOpened(): ret, frame cap.read() if not ret: break # 运行推理 results model(frame) annotated_frame results[0].plot() # 显示结果 stframe.image(annotated_frame, channelsBGR, use_column_widthTrue) cap.release()6.3 批量处理功能添加批量图像处理功能# 批量处理 uploaded_files st.file_uploader(选择多个图像文件, type[jpg, jpeg, png], accept_multiple_filesTrue) if uploaded_files: progress_bar st.progress(0) for i, uploaded_file in enumerate(uploaded_files): # 处理每个文件 image Image.open(uploaded_file) img_array np.array(image) img_array cv2.cvtColor(img_array, cv2.COLOR_RGB2BGR) results model(img_array) annotated_frame results[0].plot() annotated_frame cv2.cvtColor(annotated_frame, cv2.COLOR_BGR2RGB) # 显示结果 st.image(annotated_frame, captionf结果 {i1}, use_column_widthTrue) # 更新进度条 progress_bar.progress((i 1) / len(uploaded_files))7. 部署与优化7.1 模型导出将训练好的模型导出为不同格式# 导出为ONNX格式适合跨平台部署 model.export(formatonnx) # 导出为TensorRT格式适合高性能推理 model.export(formatengine) # 导出为OpenVINO格式适合Intel硬件 model.export(formatopenvino)7.2 性能优化# 推理优化配置 inference_config { conf: 0.25, # 置信度阈值 iou: 0.45, # IoU阈值 imgsz: 640, # 推理尺寸 half: True, # 使用半精度推理 device: 0, # 使用GPU verbose: False, # 减少输出 } # 使用优化配置进行推理 results model.predict(sourceimage.jpg, **inference_config)7.3 系统集成将训练好的模型集成到现有系统中class YOLO12Detector: def __init__(self, model_path): self.model YOLO(model_path) self.class_names self.model.names def detect(self, image): 检测图像中的目标 results self.model(image) detections [] for result in results: for box in result.boxes: detection { class: self.class_names[int(box.cls[0])], confidence: float(box.conf[0]), bbox: box.xyxy[0].tolist() } detections.append(detection) return detections def batch_detect(self, images): 批量检测 return [self.detect(img) for img in images]8. 常见问题解决8.1 训练问题问题1训练损失不下降检查学习率是否合适验证数据标注质量尝试调整优化器参数问题2过拟合增加数据增强使用早停策略添加正则化8.2 部署问题问题1推理速度慢使用更小的模型尺寸启用半精度推理优化图像预处理问题2内存不足减小批处理大小使用梯度累积优化模型结构9. 总结通过本教程我们完整地走过了YOLO12模型迁移学习的全流程从环境准备、数据准备到模型训练、评估优化最后到WebUI系统部署。YOLO12的以注意力为中心的架构确实在精度上有了显著提升特别是在处理复杂场景时表现更加出色。实际使用下来整个流程还是比较顺畅的Ultralytics库的封装让训练过程变得简单而Streamlit则让Web界面的开发变得轻松。需要注意的是迁移学习的效果很大程度上取决于标注数据的质量所以在数据准备阶段要多花些心思。如果你刚开始接触目标检测建议先从简单的场景开始尝试比如只检测少数几个类别等熟悉了整个流程后再扩展到更复杂的应用场景。训练过程中要多关注损失曲线和评估指标及时调整超参数才能获得更好的效果。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2442483.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!