【旋转框】基于YOLO26深度学习的无人机视角车辆检测系统【python源码+Pyqt5界面+数据集+训练代码】
《------往期经典推荐------》一、AI应用软件开发实战专栏【链接】项目名称项目名称1.【人脸识别与管理系统开发】2.【车牌识别与自动收费管理系统开发】3.【手势识别系统开发】4.【人脸面部活体检测系统开发】5.【图片风格快速迁移软件开发】6.【人脸表表情识别系统】7.【YOLOv8多目标识别与自动标注软件开发】8.【基于YOLOv8深度学习的行人跌倒检测系统】9.【基于YOLOv8深度学习的PCB板缺陷检测系统】10.【基于YOLOv8深度学习的生活垃圾分类目标检测系统】11.【基于YOLOv8深度学习的安全帽目标检测系统】12.【基于YOLOv8深度学习的120种犬类检测与识别系统】13.【基于YOLOv8深度学习的路面坑洞检测系统】14.【基于YOLOv8深度学习的火焰烟雾检测系统】15.【基于YOLOv8深度学习的钢材表面缺陷检测系统】16.【基于YOLOv8深度学习的舰船目标分类检测系统】17.【基于YOLOv8深度学习的西红柿成熟度检测系统】18.【基于YOLOv8深度学习的血细胞检测与计数系统】19.【基于YOLOv8深度学习的吸烟/抽烟行为检测系统】20.【基于YOLOv8深度学习的水稻害虫检测与识别系统】21.【基于YOLOv8深度学习的高精度车辆行人检测与计数系统】22.【基于YOLOv8深度学习的路面标志线检测与识别系统】23.【基于YOLOv8深度学习的智能小麦害虫检测识别系统】24.【基于YOLOv8深度学习的智能玉米害虫检测识别系统】25.【基于YOLOv8深度学习的200种鸟类智能检测与识别系统】26.【基于YOLOv8深度学习的45种交通标志智能检测与识别系统】27.【基于YOLOv8深度学习的人脸面部表情识别系统】28.【基于YOLOv8深度学习的苹果叶片病害智能诊断系统】29.【基于YOLOv8深度学习的智能肺炎诊断系统】30.【基于YOLOv8深度学习的葡萄簇目标检测系统】31.【基于YOLOv8深度学习的100种中草药智能识别系统】32.【基于YOLOv8深度学习的102种花卉智能识别系统】33.【基于YOLOv8深度学习的100种蝴蝶智能识别系统】34.【基于YOLOv8深度学习的水稻叶片病害智能诊断系统】35.【基于YOLOv8与ByteTrack的车辆行人多目标检测与追踪系统】36.【基于YOLOv8深度学习的智能草莓病害检测与分割系统】37.【基于YOLOv8深度学习的复杂场景下船舶目标检测系统】38.【基于YOLOv8深度学习的农作物幼苗与杂草检测系统】39.【基于YOLOv8深度学习的智能道路裂缝检测与分析系统】40.【基于YOLOv8深度学习的葡萄病害智能诊断与防治系统】41.【基于YOLOv8深度学习的遥感地理空间物体检测系统】42.【基于YOLOv8深度学习的无人机视角地面物体检测系统】43.【基于YOLOv8深度学习的木薯病害智能诊断与防治系统】44.【基于YOLOv8深度学习的野外火焰烟雾检测系统】45.【基于YOLOv8深度学习的脑肿瘤智能检测系统】46.【基于YOLOv8深度学习的玉米叶片病害智能诊断与防治系统】47.【基于YOLOv8深度学习的橙子病害智能诊断与防治系统】48.【基于深度学习的车辆检测追踪与流量计数系统】49.【基于深度学习的行人检测追踪与双向流量计数系统】50.【基于深度学习的反光衣检测与预警系统】51.【基于深度学习的危险区域人员闯入检测与报警系统】52.【基于深度学习的高密度人脸智能检测与统计系统】53.【基于深度学习的CT扫描图像肾结石智能检测系统】54.【基于深度学习的水果智能检测系统】55.【基于深度学习的水果质量好坏智能检测系统】56.【基于深度学习的蔬菜目标检测与识别系统】57.【基于深度学习的非机动车驾驶员头盔检测系统】58.【太基于深度学习的阳能电池板检测与分析系统】59.【基于深度学习的工业螺栓螺母检测】60.【基于深度学习的金属焊缝缺陷检测系统】61.【基于深度学习的链条缺陷检测与识别系统】62.【基于深度学习的交通信号灯检测识别】63.【基于深度学习的草莓成熟度检测与识别系统】64.【基于深度学习的水下海生物检测识别系统】65.【基于深度学习的道路交通事故检测识别系统】66.【基于深度学习的安检X光危险品检测与识别系统】67.【基于深度学习的农作物类别检测与识别系统】68.【基于深度学习的危险驾驶行为检测识别系统】69.【基于深度学习的维修工具检测识别系统】70.【基于深度学习的维修工具检测识别系统】71.【基于深度学习的建筑墙面损伤检测系统】72.【基于深度学习的煤矿传送带异物检测系统】72.【基于深度学习的老鼠智能检测系统】二、机器学习实战专栏【链接】已更新31期欢迎关注持续更新中~~三、深度学习【Pytorch】专栏【链接】四、【Stable Diffusion绘画系列】专栏【链接】五、YOLOv8改进专栏【链接】持续更新中~~六、YOLO性能对比专栏【链接】持续更新中~《------正文------》基本功能演示视频演示地址https://www.bilibili.com/video/BV1C7wezdEDk摘要低空经济下无人机成为交通监控关键节点但传统水平框检测在俯视视角下易受背景干扰且无法获取车辆朝向。基于YOLO的旋转框(OBB)检测系统突破了这一局限不仅能精准定位还能实时解算车辆的长、宽及角度完整还原其真实姿态与空间占用。本文基于YOLO26深度学习框架通过17325张实际场景中无人机视角车辆相关图片训练一个车辆检测模型并且采用了最新的旋转框检测技术,其相对于传统的水平框检测结果更加精准可靠。最终基于训练好的模型制作了一款带UI界面的无人机视角车辆检测系统更便于进行功能的展示。该系统是基于python与PyQT5开发的支持图片、视频以及摄像头进行目标检测并保存检测结果。本文提供了完整的Python代码和使用教程给感兴趣的小伙伴参考学习完整的代码资源文件获取方式见文末。文章目录基本功能演示研究背景旋转框检测优势系统应用场景主要工作内容一、软件核心功能介绍及效果演示软件主要功能界面参数设置说明检测结果说明主要功能说明1图片检测说明2视频检测说明3摄像头检测说明4保存图片与视频检测说明二、模型的训练、评估与推理1.YOLO26介绍YOLO26创新点1. 移除DFL模块简化预测流程2. 端到端无NMS推理降低 latency3. ProgLossSTAL提升检测精度4. MuSGD优化器强化训练稳定性数据集准备与训练1. 数据集准备2.模型训练自定义数据集格式3. 训练结果评估4. 使用模型进行推理四、可视化系统制作Pyqt5详细介绍系统制作【获取方式】点击跳转至文末《完整相关文件及源码》获取研究背景随着低空经济的崛起无人机已成为城市感知与交通监控的关键节点。然而传统基于水平矩形框Axis-Aligned Bounding Box的目标检测算法在处理无人机俯视视角时存在显著局限当车辆倾斜停放、位于弯道或密集拥堵时水平框会包含大量背景噪声如相邻车道、绿化带导致定位精度下降且无法获取车辆真实的朝向信息。基于YOLO框架研发的无人机视角旋转框(OBB)车辆检测系统突破了这一瓶颈。该系统不仅能精准锁定车辆位置更能通过旋转框实时解算每辆车的长、宽及精确旋转角度还原车辆在真实世界中的姿态与占据空间。这一技术革新极大提升了复杂场景下的检测信噪比为高精度交通流量统计、违章行为分析如逆向行驶、自动驾驶高精地图更新及智慧停车管理提供了不可或缺的细粒度数据支撑是推动城市交通治理从“粗放式监控”向“精细化感知”跨越的重要引擎。旋转框检测优势本文采用的是旋转框目标检测模型为什么采用旋转框检测而不采用传统的水平框检测呢因为其相较于传统水平框的目标框Axis-Aligned Bounding Box, AABB具有以下优势1. 更紧密的物体包围示例图中蓝色框为传统水平框检测结果红色为旋转框检测结果问题传统框是水平和垂直的矩形无法贴合倾斜或长宽比悬殊的物体如车辆、船只、文本等导致框内包含大量无关背景区域。优势旋转框通过引入角度参数如旋转角或方向角能更精确地贴合物体轮廓减少冗余背景提升检测的语义准确性。2. 减少密集场景中的重叠问题示例左图为传统水平框检测结果右图为旋转框检测结果问题传统框在物体密集或排列不规则时检测框容易大面积重叠导致非极大值抑制NMS误删正确检测。优势旋转框通过角度对齐物体降低框之间的重叠率缓解NMS的误判问题提升召回率。3. 提升倾斜物体的检测精度问题传统框对倾斜物体的标注会引入大量背景噪声导致分类置信度下降或定位误差增大。优势旋转框通过方向感知建模更适应物体的几何特性尤其适合处理具有显著方向性的目标如飞机、风力发电机叶片。示例航拍图像中不同朝向的飞机、医学影像中倾斜的器官结构。4. 支持更复杂的下游任务优势旋转框提供的角度和形状信息可直接用于后续任务如实例分割更精准的物体掩膜生成。姿态估计结合角度信息推断物体朝向。运动预测如自动驾驶通过方向角预判车辆行驶轨迹。5. 特定领域的必要需求遥感图像建筑物、农田等目标通常具有任意方向传统框难以满足检测需求。文档分析倾斜或弯曲的文本行需要旋转框准确定位。工业检测机械零件、PCB板元件的方向对缺陷检测至关重要。6. 更严格的评估指标传统IoU交并比对旋转框不敏感旋转框通常使用 旋转IoURotated IoU 或 方向敏感损失函数能更真实反映模型性能。局限性尽管旋转框有上述优势但也面临挑战标注成本高需要标注角度工具和人工成本更高。模型复杂度需设计角度回归分支可能增加训练难度。计算开销旋转框的IoU计算复杂度高于传统框。总的来说旋转框在密集场景、倾斜物体、方向敏感任务中优势显著但其适用性需结合具体场景权衡。传统框因简单高效仍是通用场景的主流选择而旋转框是特定领域如遥感、文本检测的重要补充。系统应用场景交通流量分析利用旋转框角度精准区分车道解决跨道误检实时统计车流、车型及排队长度分析变道意图辅助信号灯智能配时。智慧停车监测通过长宽与角度数据精准识别压线、斜停等不规范行为生成车位热力图以引导泊车提升空间利用率。安保违停执法自动识别禁停区车辆结合角度与尺寸判断滞留时长及车型辅助非现场执法取证。车路协同增强补充路侧感知盲区向网联车辆下发全局位置、朝向及尺寸数据助力车辆预判轨迹与冲突。主要工作内容本文的主要内容包括以下几个方面搜集与整理数据集搜集整理实际场景中无人机视角车辆的相关数据图片并进行相应的数据处理为模型训练提供训练数据集训练模型基于整理的数据集根据最前沿的YOLO26旋转框检测技术训练目标检测模型实现对需要检测的对象进行有效检测的功能模型性能评估对训练出的模型在验证集上进行了充分的结果评估和对比分析主要目的是为了揭示模型在关键指标如Precision、Recall、mAP50和mAP50-95等指标上的表现情况。可视化系统制作基于训练出的目标检测模型搭配Pyqt5制作的UI界面用python开发了一款界面简洁的软件系统可支持图片、视频以及摄像头检测同时可以将图片或者视频检测结果进行保存。其目的是为检测系统提供一个用户友好的操作平台使用户能够便捷、高效地进行检测任务。软件初始界面如下图所示检测结果界面如下注右侧窗口中上面窗口为原始图片下方窗口为图片检测结果。一、软件核心功能介绍及效果演示软件主要功能1. 可用于实际场景中的无人机视角车辆检测分2个检测类别[小型车辆大型车辆];2. 支持图片、视频及摄像头进行检测同时支持图片的批量检测3. 界面可实时显示目标位置、目标总数、置信度、用时等信息;4. 支持图片或者视频的检测结果保存5. 支持将图片的检测结果保存为csv文件;界面参数设置说明置信度阈值也就是目标检测时的conf参数只有检测出的目标框置信度大于该值结果才会显示交并比阈值也就是目标检测时的iou参数对检测框重叠比例iou大于该阈值的目标框进行过滤【也就是说假如两检测框iou大于该值的话会过滤掉其中一个该值越小重叠框会越少】检测结果说明显示标签名称与置信度表示是否在检测图片上标签名称与置信度显示默认不勾选如果勾选则会在检测图片上显示标签名称与置信度总目标数表示画面中检测出的目标数目目标选择可选择单个目标进行位置信息、置信度等信息查看。旋转框相关信息中心点坐标表示旋转矩形框的中心点位置坐标旋转角度°表示矩形框长边与水平线之间小于90°的夹角;旋转框长表示旋转框的长边长度px像素单位旋转框宽表示旋转框的宽长度px像素单位主要功能说明功能视频演示见文章开头以下是简要的操作描述。1图片检测说明点击打开图片按钮选择需要检测的图片或者点击打开文件夹按钮选择需要批量检测图片所在的文件夹操作演示如下点击目标下拉框后可以选定指定目标的结果信息进行显示。点击保存按钮会对检测结果进行保存存储路径为save_data目录下,同时会将图片检测信息保存csv文件。注1.右侧目标位置默认显示置信度最大一个目标位置可用下拉框进行目标切换。所有检测结果均在左下方表格中显示。2视频检测说明点击视频按钮打开选择需要检测的视频就会自动显示检测结果再次点击可以关闭视频。点击保存按钮会对视频检测结果进行保存存储路径为save_data目录下。3摄像头检测说明点击打开摄像头按钮可以打开摄像头可以实时进行检测再次点击可关闭摄像头。4保存图片与视频检测说明点击保存按钮后会将当前选择的图片【含批量图片】或者视频的检测结果进行保存对于图片图片检测还会保存检测结果为csv文件,方便进行查看与后续使用。检测的图片与视频结果会存储在save_data目录下。【注暂不支持视频文件的检测结果保存为csv文件格式。】保存的检测结果文件如下图片文件保存的csv文件内容如下包括图片路径、目标在图片中的编号、目标类别、置信度、中心点坐标、旋转框长、旋转框宽、旋转角度。二、模型的训练、评估与推理1.YOLO26介绍本项目采用的是最新的YOLO26模型。YOLO26 是 Ultralytics 2026 年 1 月推出的新一代计算机视觉模型主打边缘优先、高效部署。它采用端到端免 NMS 架构移除 DFL 模块CPU 推理速度较前代提升 43%搭配 MuSGD 优化器与 ProgLossSTAL 损失策略强化小目标检测能力支持检测、分割、姿势估计等多任务可无缝适配树莓派、嵌入式设备等终端广泛应用于智慧农业、安防监控等领域。YOLO各版本性能对比YOLO26创新点YOLO26的性能飞跃源于四大核心技术创新从模型架构到训练机制全面优化1. 移除DFL模块简化预测流程早期YOLO模型依赖分布焦点损失DFL提升边界框精度但这一模块增加了部署复杂度且存在固定回归限制。YOLO26彻底移除DFL不仅简化了边界框预测逻辑提升了硬件兼容性还解决了超大目标检测的可靠性问题让模型在边缘设备上的导出与运行更顺畅。2. 端到端无NMS推理降低 latency传统目标检测需通过非极大值抑制NMS进行后处理过滤重叠预测框——这一步骤会增加延迟、提升部署难度。YOLO26采用原生端到端架构直接输出最终预测结果内部自动处理重复预测彻底省去NMS环节大幅降低推理延迟与集成风险完美适配实时边缘场景。3. ProgLossSTAL提升检测精度渐进式损失平衡ProgLoss让模型训练过程更稳定收敛更平滑减少训练波动小目标感知标签分配STAL针对小目标、低可见度目标优化学习机制解决边缘场景中“难检测”问题两项技术结合让YOLO26在复杂场景中仍能保持高可靠检测尤其适用于物联网、机器人、航拍等小目标密集场景。4. MuSGD优化器强化训练稳定性YOLO26采用全新混合优化器MuSGD融合传统随机梯度下降SGD的强泛化能力与大语言模型LLM训练中的先进优化思路。该优化器灵感源自Moonshot AI的Kimi K2能让模型更快达到高性能水平同时降低训练不稳定性尤其在大型复杂数据集训练中表现突出。数据集准备与训练本文主要基于YOLO26n-obb旋转框检测模型进行模型的训练训练完成后对模型在验证集上的表现进行全面的性能评估。总体流程包括数据集准备、模型训练、模型评估。1. 数据集准备通过网络上搜集关于实际场景中无人机视角车辆的相关图片并使用roLabelImg标注工具对每张图片进行标注分2个检测类别[小型车辆,大型车辆]。最终数据集一共包含17325张图片其中训练集包含12118张图片验证集包含2599张图片,测试集包含2608张图片。部分数据集图像及标注如下图所示数据集各类别数目分布情况如下2.模型训练准备好数据集后将图片数据以如下格式放置在项目目录中。在项目目录中新建datasets目录同时将检测的图片分为训练集与验证集放入Data目录下。自定义数据集格式数据集格式YOLO OBB格式通过其四个角点指定边界框坐标在0和1之间归一化。它遵循以下格式class_index,x1,y1,x2,y2,x3,y3,x4,y4在内部YOLO以xywhr格式处理损失和输出该格式表示边界框的中心点xy、宽度、高度和旋转。同时我们需要新建一个data.yaml文件用于存储训练数据的路径及模型需要进行检测的类别。YOLOv11在进行模型训练时会读取该文件的信息用于进行模型的训练与验证。data.yaml的具体内容如下#Dataset configuration.train:E:\MyCVProgram\4obbProgram\DroneViewVehicle_26\datasets\train\images val:E:\MyCVProgram\4obbProgram\DroneViewVehicle_26\datasets\val\images test:E:\MyCVProgram\4obbProgram\DroneViewVehicle_26\datasets\test\images#Class numbers.nc:2#Class names.names:[small-vehicle,large-vehicle]注train与val后面表示需要训练图片的路径建议直接写自己文件的绝对路径。数据准备完成后通过调用train.py文件进行模型训练epochs参数用于调整训练的轮数batch参数用于调整训练的批次大小【根据内存大小调整最小为1】optimizer设定的优化器为SGD训练代码如下#coding:utf-8fromultralyticsimportYOLOimportmatplotlib matplotlib.use(TkAgg)# 模型配置文件model_yaml_pathultralytics/cfg/models/26/yolo26-obb.yaml#数据集配置文件data_yaml_pathrdatasets/data.yaml#预训练模型pre_model_nameyolo26n-obb.ptif__name____main__:#加载预训练模型modelYOLO(model_yaml_path).load(pre_model_name)#训练模型resultsmodel.train(datadata_yaml_path,epochs150,batch32,nametrain_26)模型常用训练超参数参数说明模型的训练设置包括训练过程中使用的各种超参数和配置。这些设置会影响模型的性能、速度和准确性。关键的训练设置包括批量大小、学习率、动量和权重衰减。此外优化器、损失函数和训练数据集组成的选择也会影响训练过程。对这些设置进行仔细的调整和实验对于优化性能至关重要。以下是一些常用的模型训练参数和说明参数名默认值说明modelNone指定用于训练的模型文件。接受指向.pt预训练模型或.yaml配置文件。对于定义模型结构或初始化权重至关重要。dataNone数据集配置文件的路径例如coco8.yaml).该文件包含特定于数据集的参数包括训练数据和验证数据的路径、类名和类数。epochs100训练总轮数。每个epoch代表对整个数据集进行一次完整的训练。调整该值会影响训练时间和模型性能。patience100在验证指标没有改善的情况下提前停止训练所需的epoch数。当性能趋于平稳时停止训练有助于防止过度拟合。batch16批量大小有三种模式:设置为整数(例如’ Batch 16 ‘) 60% GPU内存利用率的自动模式(’ Batch -1 ‘)或指定利用率分数的自动模式(’ Batch 0.70 )。imgsz640用于训练的目标图像尺寸。所有图像在输入模型前都会被调整到这一尺寸。影响模型精度和计算复杂度。deviceNone指定用于训练的计算设备单个 GPU (device0、多个 GPU (device0,1)、CPU (devicecpu)或苹果芯片的 MPS (devicemps).workers8加载数据的工作线程数每RANK多 GPU 训练。影响数据预处理和输入模型的速度尤其适用于多 GPU 设置。nameNone训练运行的名称。用于在项目文件夹内创建一个子目录用于存储训练日志和输出结果。pretrainedTrue决定是否从预处理模型开始训练。可以是布尔值也可以是加载权重的特定模型的字符串路径。提高训练效率和模型性能。optimizerauto为训练模型选择优化器。选项包括SGD,Adam,AdamW,NAdam,RAdam,RMSProp等或auto用于根据模型配置进行自动选择。影响收敛速度和稳定性lr00.01初始学习率即SGD1E-2,Adam1E-3) .调整这个值对优化过程至关重要会影响模型权重的更新速度。lrf0.01最终学习率占初始学习率的百分比 (lr0 * lrf)与调度程序结合使用随着时间的推移调整学习率。3. 训练结果评估在深度学习中我们通常用损失函数下降的曲线来观察模型训练的情况。YOLO26在训练时主要包含三个方面的损失定位损失(box_loss)、分类损失(cls_loss)和动态特征损失dfl_loss在训练结束后可以在runs/目录下找到训练过程及结果文件如下所示各损失函数作用说明定位损失box_loss预测框与标定框之间的误差GIoU越小定位得越准分类损失cls_loss计算锚框与对应的标定分类是否正确越小分类得越准动态特征损失dfl_lossDFLLoss是一种用于回归预测框与目标框之间距离的损失函数。在计算损失时目标框需要缩放到特征图尺度即除以相应的stride并与预测的边界框计算Ciou Loss同时与预测的anchors中心点到各边的距离计算回归DFLLoss。本文训练结果如下我们通常用PR曲线来体现精确率和召回率的关系本文训练结果的PR曲线如下。mAP表示Precision和Recall作为两轴作图后围成的面积m表示平均后面的数表示判定iou为正负样本的阈值。mAP.5表示阈值大于0.5的平均mAP可以看到本文模型目标检测的mAP0.5值为0.929对于小目标检测来说检测结果还是十分错的。4. 使用模型进行推理模型训练完成后我们可以得到一个最佳的训练结果模型best.pt文件在runs/train/weights目录下。我们可以使用该文件进行后续的推理检测。图片检测代码如下#coding:utf-8fromultralyticsimportYOLOimportcv2# 所需加载的模型目录pathmodels/best.pt# 需要检测的图片地址img_pathTestFiles/00288_jpg.rf.1b2bf11b46ae9f7046a671618fb08c03.jpg# 加载预训练模型# conf 0.25 置信度阈值# iou 0.7 iou阈值modelYOLO(path,taskobb)# 检测图片resultsmodel(img_path)resresults[0].plot(labelsFalse)# res cv2.resize(res,dsizeNone,fx0.5,fy0.5,interpolationcv2.INTER_LINEAR)cv2.imshow(Result,res)# cv2.imwrite(result.jpg, res)cv2.waitKey(0)执行上述代码后会将执行的结果直接标注在图片上结果如下更多检测结果示例如下四、可视化系统制作基于上述训练出的目标检测模型为了给此检测系统提供一个用户友好的操作平台使用户能够便捷、高效地进行检测任务。博主基于Pyqt5开发了一个可视化的系统界面通过图形用户界面GUI用户可以轻松地在图片、视频和摄像头实时检测之间切换无需掌握复杂的编程技能即可操作系统。【系统详细展示见第一部分内容】Pyqt5详细介绍关于Pyqt5的详细介绍可以参考之前的博客文章《Python中的Pyqt5详细介绍基本机构、部件、布局管理、信号与槽、跨平台》地址https://a-xu-ai.blog.csdn.net/article/details/143273797系统制作博主基于Pyqt5框架开发了此款无人机视角车辆检测系统即文中第一部分的演示内容能够很好的支持图片、视频及摄像头进行检测同时支持检测结果的保存。通过图形用户界面GUI用户可以轻松地在图片、视频和摄像头实时检测之间切换无需掌握复杂的编程技能即可操作系统。这不仅提升了系统的可用性和用户体验还使得检测过程更加直观透明便于结果的实时观察和分析。此外GUI还可以集成其他功能如检测结果的保存与导出、检测参数的调整从而为用户提供一个全面、综合的检测工作环境促进智能检测技术的广泛应用。关于该系统涉及到的完整源码、UI界面代码、数据集、训练代码、训练好的模型、测试图片视频等相关文件均已打包上传感兴趣的小伙伴可以通过下载链接自行获取。【获取方式】本文涉及到的完整全部程序文件包括python源码、数据集、训练好的结果文件、训练代码、UI源码、测试图片视频等见下图获取方式见文末注意该代码基于Python3.9开发运行界面的主程序为MainProgram.py其他测试脚本说明见上图。为确保程序顺利运行请按照程序运行说明文档txt配置软件运行所需环境。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2425719.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!