YOLO26保姆级教程:从环境搭建到模型训练,小白也能轻松上手
YOLO26保姆级教程从环境搭建到模型训练小白也能轻松上手1. 引言为什么选择YOLO26如果你对计算机视觉感兴趣或者工作中需要处理图片、视频里的物体识别那你一定听说过YOLO这个名字。它就像一个视力超群的“火眼金睛”能在眨眼间找出图片里所有的目标物体并告诉你在哪里。YOLO26是这个系列的最新成员它在速度和精度上又向前迈进了一大步。但很多朋友在尝试时往往卡在了第一步环境配置。各种依赖包版本冲突、CUDA安装失败、代码跑不起来……这些问题足以劝退一个满怀热情的新手。好消息是现在你不用再为这些头疼了。CSDN星图平台推出的“最新YOLO26官方版训练与推理镜像”已经帮你把所有环境都打包好了。你只需要点几下鼠标就能获得一个开箱即用的YOLO26开发环境。今天我就带你从零开始手把手走完从环境启动到训练出自己模型的完整流程。即使你之前没接触过深度学习也能跟着这篇教程轻松上手。2. 环境准备一分钟启动你的专属AI实验室2.1 镜像启动与环境激活在CSDN星图平台找到“最新YOLO26官方版训练与推理镜像”并启动后你会看到一个类似下图的JupyterLab界面。这是我们接下来所有操作的主战场。启动完成后界面是这样的首先我们需要激活正确的Python环境。在终端Terminal里输入以下命令conda activate yolo看到命令行前缀从(base)或(torch25)变成(yolo)就说明环境切换成功了。为什么一定要激活这个环境因为这个镜像预装了所有YOLO26运行需要的“零件”比如PyTorch 1.10.0、CUDA 12.1、Python 3.9.5还有opencv、numpy等一堆工具包。它们都装在yolo这个环境里。不激活你就用不了这些工具。2.2 代码迁移与目录切换镜像启动后代码默认放在系统盘。为了有足够的空间存放我们后续的数据集和训练结果也为了方便修改代码我们需要把代码复制到数据盘。执行以下命令cp -r /root/ultralytics-8.4.2 /root/workspace/复制完成后进入代码目录cd /root/workspace/ultralytics-8.4.2现在你的工作环境就准备好了。你可以用ls命令查看一下目录内容应该能看到一堆Python文件和文件夹。3. 初体验用预训练模型玩转目标检测在开始训练自己的模型前我们先来体验一下YOLO26有多厉害。镜像里已经预下载了几个官方训练好的模型文件权重放在代码根目录下。我们用一个简单的脚本来试试推理效果。3.1 编写推理脚本在代码目录下新建一个Python文件比如叫my_detect.py。你可以用JupyterLab自带的文本编辑器或者直接在终端用vim或nano命令创建。文件内容如下# -*- coding: utf-8 -*- from ultralytics import YOLO if __name__ __main__: # 1. 加载模型 # 这里我们使用一个预训练的姿态估计模型 model YOLO(modelyolo26n-pose.pt) # 2. 进行预测 model.predict( source./ultralytics/assets/zidane.jpg, # 要检测的图片路径 saveTrue, # 把检测结果图片保存下来 showFalse # 不在窗口显示服务器环境通常不显示 )这段代码做了两件事加载模型YOLO(modelyolo26n-pose.pt)这一行告诉程序去加载名叫yolo26n-pose.pt的模型文件。这个模型已经学会了识别人的身体关键点比如头、肩膀、手肘。进行预测model.predict()是执行预测的函数。我们传入了几个参数source告诉模型检测哪张图片。这里用的是自带的示例图片。saveTrue非常重要这会让程序把检测结果画了框和点的图片保存到硬盘上。showFalse在服务器上通常没有图形界面所以设为False。其他你可能用到的参数source除了可以是图片路径如‘bus.jpg’还可以是视频文件路径如‘video.mp4’摄像头编号如0表示打开电脑的第一个摄像头一个包含很多图片的文件夹路径如果你想检测其他物体比如猫狗、车辆可以换成‘yolo26n.pt’这个通用检测模型。3.2 运行推理脚本在终端里确保你在/root/workspace/ultralytics-8.4.2目录下然后运行python my_detect.py程序会开始运行终端会打印一些加载信息和进度。完成后它会告诉你结果保存在哪里通常是runs/detect/predict/这样的文件夹里。你可以去这个文件夹找到处理后的图片看看YOLO26在示例图片上标记出了哪些关键点。恭喜你已经完成了第一次YOLO推理。是不是很简单接下来我们要进入更核心的部分——训练一个属于你自己的模型。4. 核心实战训练你自己的检测模型训练模型简单说就是“教”AI认识新东西。比如你想让AI识别你工厂流水线上的特定零件或者识别花园里不同品种的花。你需要准备一些“教材”数据集然后让AI反复学习。4.1 准备数据集给AI的“教材”YOLO需要特定格式的“教材”主要包含两部分图片包含你要识别的物体的普通图片.jpg, .png等。标签文件与图片同名的.txt文件里面用数字精确描述了每个物体在图片中的位置和类别。标签文件格式详解以目标检测为例每一行代表图片中的一个物体格式为class_id x_center y_center width heightclass_id物体的类别编号从0开始。比如0代表“猫”1代表“狗”。x_center, y_center物体边界框中心点的坐标。这里的坐标是归一化后的即相对于图片宽高的比例值范围0-1。width, height物体边界框的宽度和高度。同样是归一化后的比例值。举个例子假设一张图片大小是 640x480里面有一只猫class_id0它的边界框左上角在(100, 120)右下角在(300, 400)。 那么中心点 x (100 300) / 2 / 640 0.3125中心点 y (120 400) / 2 / 480 0.5417宽度 w (300 - 100) / 640 0.3125高度 h (400 - 120) / 480 0.5833 标签文件里就应该写一行0 0.3125 0.5417 0.3125 0.5833如何获得标签文件手动标注使用LabelImg、CVAT、X-AnyLabeling等工具在图片上画框并指定类别工具会自动生成.txt文件。格式转换如果你已有其他格式如Pascal VOC的XML文件的数据集需要写脚本转换成YOLO格式。4.2 创建数据集配置文件数据集准备好后我们需要创建一个“说明书”告诉YOLO去哪里找这些“教材”。这个“说明书”就是一个data.yaml文件。在项目根目录/root/workspace/ultralytics-8.4.2下创建一个名为data.yaml的文件内容如下# data.yaml # 训练集图片所在的路径 train: /root/workspace/my_dataset/images/train # 验证集图片所在的路径 val: /root/workspace/my_dataset/images/val # 可选测试集图片路径 # test: /root/workspace/my_dataset/images/test # 类别数量比如你要识别猫和狗这里就是2 nc: 2 # 类别名称列表顺序要和标签文件里的class_id对应 names: [cat, dog]关键点train和val路径指向的是图片.jpg所在的文件夹。YOLO会自动去同级目录下的labels文件夹里寻找对应的标签文件.txt。所以你的数据集文件夹结构应该是这样的my_dataset/ ├── images/ │ ├── train/ # 存放训练图片 │ └── val/ # 存放验证图片 └── labels/ ├── train/ # 存放训练标签.txt文件 └── val/ # 存放验证标签.txt文件请将/root/workspace/my_dataset替换成你实际上传数据集后的真实路径。4.3 编写训练脚本现在我们来编写训练的主程序。在项目根目录下创建一个my_train.py文件。# -*- coding: utf-8 -*- import warnings warnings.filterwarnings(ignore) # 忽略一些不影响运行的警告信息 from ultralytics import YOLO if __name__ __main__: # 1. 构建模型结构 # 这里我们使用YOLO26的神经网络结构定义文件 model YOLO(model/root/workspace/ultralytics-8.4.2/ultralytics/cfg/models/26/yolo26.yaml) # 2. 可选加载预训练权重 # 使用官方在大型数据集上训练好的权重来初始化模型通常能训练得更快更好 # 如果你是做全新的任务比如识别非常特殊的物体可以不加载从头开始训练 model.load(yolo26n.pt) # 3. 开始训练 model.train( datadata.yaml, # 数据集配置文件的路径 imgsz640, # 输入图片的大小调整为640x640像素 epochs200, # 整个数据集要训练多少轮 batch128, # 一次喂给模型多少张图片越大训练越快但需要更多显存 workers8, # 加载数据的线程数可以加快数据读取速度 device0, # 使用哪块GPU训练0代表第一块。如果有多个GPU可以写‘0,1’ optimizerSGD, # 优化器SGD是常用的一种 close_mosaic10, # 最后10轮关闭Mosaic数据增强让训练更稳定 resumeFalse, # 是否从上次中断的地方继续训练 projectruns/train, # 训练结果保存的根目录 namemy_first_exp, # 本次实验的名字会生成一个对应的子文件夹 single_clsFalse, # 你的数据集是否只有一个类别是则为True cacheFalse, # 是否缓存数据集到内存True会更快但占内存 )重要参数解析参数通俗解释新手建议值imgsz把图片统一缩放到多大。图片太大训练慢太小可能看不清物体。640epochs训练轮数。模型会把整个数据集看多少遍。轮数太少学不会太多可能学“过”了。100-300batch一批处理多少张图。数字越大训练越快越稳定但对电脑显存要求越高。根据你的显存来可以从16、32、64尝试。workers有几个“小工”帮你准备数据。数字大一点数据准备快训练不等待。4或8device用哪张显卡来算。‘0’用第一张‘0,1’用前两张一起算。‘0’resume如果训练到一半断了设为True可以接着训不用从头开始。Falseproject/name你的训练日志、模型文件会保存在runs/train/my_first_exp/下面。自己起个名4.4 开始训练在终端运行你的训练脚本python my_train.py训练就正式开始了你会看到终端不断刷出信息包括当前训练到第几轮、损失值是多少、精度如何等等。这个过程可能会持续几个小时甚至更久取决于你的数据集大小和训练轮数。你可以泡杯茶耐心等待。训练过程中程序会自动把最好的模型和最后一轮的模型保存下来。5. 结果验证与模型下载5.1 使用训练好的模型进行推理训练完成后在runs/train/my_first_exp/weights/目录下你会找到两个最重要的文件best.pt训练过程中在验证集上表现最好的模型。last.pt训练结束时的最终模型。我们可以用这个自己训练的模型去检测新的图片。新建一个my_val_detect.py文件from ultralytics import YOLO # 加载我们刚刚训练好的最佳模型 model YOLO(runs/train/my_first_exp/weights/best.pt) # 检测一张新图片 results model.predict( sourcepath/to/your/new_image.jpg, # 换成你的新图片路径 saveTrue, showFalse, conf0.25 # 置信度阈值只显示模型认为有25%以上把握的检测框 ) # 你也可以检测一个文件夹里的所有图片 # results model.predict(sourcepath/to/your/image_folder/, saveTrue)运行这个脚本看看你的模型在新图片上的表现如何这是最有成就感的时刻。5.2 下载训练成果到本地模型训练好之后我们肯定要把它下载到自己的电脑上使用或保存。服务器上的文件可以通过SFTP工具如Xftp、FileZilla下载。以Xftp为例简单几步打开Xftp新建一个连接填写服务器的IP地址、端口通常是22、用户名root和密码。连接成功后左边窗口是你的本地电脑右边窗口是远程服务器。在右边窗口导航到/root/workspace/ultralytics-8.4.2/runs/train/my_first_exp/这个文件夹。选中整个my_first_exp文件夹或者只选中weights文件夹然后从左边的本地窗口拖拽到右边的服务器窗口或者直接右键下载。如果文件很大建议先在服务器上压缩一下再下载会快很多# 在服务器终端进入runs/train目录 cd /root/workspace/ultralytics-8.4.2/runs/train # 压缩my_first_exp文件夹 tar -czf my_first_exp.tar.gz my_first_exp/然后下载这个my_first_exp.tar.gz压缩包即可。6. 总结与后续到这里你已经完成了YOLO26从环境搭建到自定义模型训练的全流程。我们再来回顾一下关键步骤环境启动利用预置镜像免去繁琐配置一键激活yolo环境。快速体验使用预训练模型进行推理直观感受YOLO的能力。数据准备按照YOLO格式整理你的图片和标签文件并创建data.yaml配置文件。模型训练编写训练脚本调整关键参数启动训练并耐心等待。验证与下载使用训练好的模型检测新图片并将最终成果下载到本地。给新手的几个建议从小开始第一次训练可以用一个只有几十张图片的小数据集快速跑通整个流程建立信心。多看日志训练时终端打印的信息和runs/train/my_first_exp目录下生成的图表如损失曲线、精度曲线能帮你判断模型学得好不好。善用预训练权重model.load(‘yolo26n.pt’)这行代码能极大提升训练效率和最终效果特别适合数据量不大的情况。尝试不同任务YOLO26不仅能做目标检测还能做实例分割YOLO26n-seg.pt、姿态估计YOLO26n-pose.pt等。修改加载的模型文件和数据集格式你就能探索更多功能。深度学习入门就像学骑车一开始可能需要人扶但一旦跑通了第一个完整的流程你会发现后面的路越来越宽。这个开箱即用的镜像和本教程就是帮你扶稳车把的那双手。现在轮子已经转动起来了大胆地去训练你的第一个AI模型吧获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2409822.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!