YOLO-v5快速入门:从镜像启动到完成检测,全程保姆级教学
YOLO-v5快速入门从镜像启动到完成检测全程保姆级教学想用AI识别图片里的物体但觉得深度学习环境搭建太麻烦模型训练太复杂今天我们就来彻底解决这个问题。我将带你用最简单、最直接的方式在10分钟内启动一个功能完整的YOLO-v5物体检测模型并让它帮你识别图片。整个过程就像打开一个App一样简单不需要你懂复杂的Python环境配置也不需要你处理繁琐的依赖包。我们将使用一个预置好的YOLO-v5镜像它把PyTorch框架、YOLO-v5代码库、所有需要的工具都打包好了。你只需要启动它运行几行代码就能立刻看到检测效果。无论你是想快速验证一个想法还是需要一个现成的检测工具这篇文章都能让你马上用起来。1. 环境准备一键启动你的AI检测工坊首先你需要一个可以运行这个镜像的环境。我们假设你已经在CSDN星图平台或其他支持Docker镜像的云服务上。整个启动过程非常简单就像安装一个软件。1.1 找到并启动YOLO-v5镜像在平台的镜像市场或搜索栏中输入“Yolo-v5”。你应该能看到一个名为“YOLO-V5”的镜像描述是基于YOLOv5算法构建的深度学习环境。点击“部署”或“启动”按钮。系统可能会让你选择一些配置比如CPU/GPU资源、内存大小。对于快速入门和测试选择基础的CPU配置例如2核4G就完全足够了。如果你想体验更快的检测速度并且平台支持可以选择带GPU的配置。确认配置后点击启动等待几十秒到一分钟你的个人AI检测环境就创建好了。1.2 进入你的工作空间镜像启动成功后你会看到几种访问方式。最常见、最适合新手的是通过Jupyter Notebook访问。点击Jupyter访问链接在实例详情页找到一个标有“Jupyter”或类似字样的链接点击它。登录Jupyter这会打开一个新的浏览器标签页显示Jupyter的登录界面或直接进入工作区。如果要求密码通常镜像文档或平台会提供默认密码如root。熟悉界面进入后你会看到一个文件浏览器界面。左侧是文件夹目录右侧可以创建新的笔记本或打开现有文件。我们的工作主要在这里进行。另一种方式是SSH更适合习惯命令行操作的用户。你可以在平台获取SSH连接命令通常包含IP、端口和密码然后在你电脑的终端Terminal或CMD里粘贴运行就能远程连接到这个环境了。不过对于第一次接触的朋友强烈建议使用Jupyter它有图形界面操作更直观。好了你的“AI检测工坊”已经开门营业了。接下来我们走进工坊开始干活。2. 初识YOLO-v5它是什么能做什么在我们写代码之前花一分钟了解一下你要用的工具。YOLO-v5是一个“物体检测”模型。顾名思义它的任务是在一张图片里找出都有哪些物体并且用框把它们标出来同时告诉你这个物体是什么。它的核心特点是快。“YOLO”是“You Only Look Once”的缩写意思是“只看一次”。传统的检测模型可能需要对图片分析好几遍而YOLO只需要把图片输入网络前向传播一次就能直接输出所有检测框和类别。这让它在保持不错精度的同时速度非常快可以用于视频实时检测。你手里的这个镜像已经把YOLO-v5官方开源代码、预训练好的模型权重、以及运行所需的所有Python库像PyTorch, OpenCV, matplotlib等都安装配置好了。你不需要操心“这个包怎么装不上”、“那个版本不兼容”的问题可以直接调用它来检测图片。它能识别的物体种类非常多因为预训练模型是在一个叫COCO的大型公开数据集上训练的。COCO数据集有80个常见类别比如人person交通工具car, bicycle, bus, truck, motorcycle动物dog, cat, horse, sheep日常物品chair, dining table, laptop, cell phone, book简单来说你给它一张生活照片它就能把里面的猫、狗、人、车、杯子等东西都找出来并标上名字。接下来我们就让它实际做一次看看。3. 第一次检测让AI看懂一张图片现在我们将在Jupyter Notebook中运行你的第一段检测代码。请跟着下面的步骤一步一步来。3.1 创建并打开一个新的笔记本在Jupyter的文件浏览器界面点击右上角或右侧的“New”按钮然后选择“Python 3 (ipykernel)”。这会创建一个新的、空白的代码笔记本Notebook。3.2 编写并运行检测代码在新的笔记本单元格中输入以下代码。你可以一段一段地输入和运行也可以全部输入后一次性运行。第一步导入模型import torch # 从官方仓库加载一个YOLOv5模型 # 你可以选择不同的型号yolov5n最小最快, yolov5s小, yolov5m中, yolov5l大, yolov5x最大最准 # 我们先从最常用的yolov5s开始 model torch.hub.load(ultralytics/yolov5, yolov5s, pretrainedTrue)运行这个单元格。第一次运行时会从网上下载模型文件大约14MB需要一点时间。下载完成后模型就加载到内存里了。第二步准备一张要检测的图片我们可以直接用网络上的图片链接这样最方便。这里我们用YOLO官方提供的一张示例图片里面包含多个人和物体。# 指定一张图片。这里用一个网络图片的URL。 # 你也可以稍后换成你自己的图片地址或者本地图片路径。 img_url https://ultralytics.com/images/zidane.jpg第三步执行推理让模型检测# 把图片交给模型进行检测 results model(img_url) # 看看结果 results.print() # 在下方打印出检测到的物体信息运行这行代码稍等片刻。你会看到控制台输出类似这样的信息image 1/1: 720x1280 2 persons, 1 tie, 1 sports ball Speed: 10.2ms pre-process, 102.4ms inference, 1.2ms NMS per image at shape (1, 3, 384, 640)这告诉我们图片尺寸是720x1280像素模型检测到了2个人persons、1条领带tie、1个运动球sports ball。下面一行是速度信息。第四步展示带框的结果图片光看文字不够直观我们让模型把标注好的图片显示出来。# 直接显示带检测框的图片 results.show()运行这行代码检测结果图片会直接显示在Notebook里。你会看到原图中的人和物体都被彩色框框了出来并且框的旁边有标签如‘person 0.89’表示‘人’置信度89%。第五步保存结果如果你想保存这张标注好的图片可以运行# 将结果图片保存到当前目录下的 ‘runs/detect/exp’ 文件夹 results.save()运行后你可以去Jupyter左侧的文件浏览器依次点开runs/detect/exp文件夹就能找到保存的图片文件名通常是zidane.jpg。恭喜你已经完成了第一次物体检测。整个过程就像把图片扔进一个黑盒子然后它吐出来一张画好框的图非常简单。4. 玩转检测试试你自己的图片只会检测网络图片可不够。现在我们来学习如何检测你自己电脑上的图片以及一次检测多张图片。4.1 检测本地图片首先你需要把图片上传到Jupyter环境里。在Jupyter文件浏览器界面找到你希望存放图片的目录比如就在当前主目录。点击右上角的“Upload”按钮。从你的电脑里选择一张图片比如my_cat.jpg点击打开。上传完成后你会在文件列表里看到它。然后修改代码中的图片路径# 将图片路径指向你上传的文件 # 假设图片和你的Notebook在同一个目录下直接写文件名即可 img_local ./my_cat.jpg # 请将 ‘my_cat.jpg’ 换成你的实际文件名 # 进行检测 results2 model(img_local) results2.show() results2.save() # 保存结果运行代码看看你的小猫或者别的什么有没有被成功识别出来4.2 一次检测多张图片YOLO-v5支持批量处理非常高效。你可以准备一个包含多张图片路径的列表。# 准备一个图片列表 image_list [ https://ultralytics.com/images/bus.jpg, https://ultralytics.com/images/zidane.jpg, # 也可以加入你的本地图片路径例如./my_cat.jpg ] # 批量推理 batch_results model(image_list) # 打印每张图片的结果 batch_results.print() # 显示所有结果可能会以网格形式展示 batch_results.show() # 保存所有结果每张图都会保存在 runs/detect/exp 里 batch_results.save()4.3 调整模型大小之前我们用的是yolov5s如果你想换一个更快或者更准的模型只需要修改加载模型的那行代码# 换一个更小更快的模型精度会稍低 model_fast torch.hub.load(ultralytics/yolov5, yolov5n, pretrainedTrue) # 换一个更大更准的模型速度会慢些 model_accurate torch.hub.load(ultralytics/yolov5, yolov5m, pretrainedTrue) # 或者 yolov5l, yolov5x然后用新的模型对象如model_fast去检测图片对比一下速度和效果的不同。5. 常见问题与小技巧第一次使用你可能会遇到一些小问题。别担心这里有一些解决方案和实用技巧。5.1 可能遇到的问题问题运行torch.hub.load时下载很慢或失败。解决这通常是网络连接问题。你可以多试几次。如果镜像环境本身已经预下载了模型有时可以直接从本地加载。或者在能稳定访问外网的环境下先运行一次完成下载。问题results.show()不显示图片。解决在Jupyter Notebook中这通常能正常工作。如果不显示可以尝试用Matplotlib来显示import matplotlib.pyplot as plt import cv2 # results.ims 是一个包含结果图片的列表 for im in results.ims: # OpenCV默认是BGR格式需要转为RGB才能在Matplotlib正确显示 im_rgb cv2.cvtColor(im, cv2.COLOR_BGR2RGB) plt.figure(figsize(12,8)) plt.imshow(im_rgb) plt.axis(off) plt.show()问题如何看到更详细的检测信息解决results对象有很多属性和方法。除了print()和show()你还可以# 用Pandas DataFrame的形式查看结果非常清晰 pandas_results results.pandas().xyxy[0] # 获取第一张图片的检测框信息 print(pandas_results)这个DataFrame会列出每个检测框的坐标xmin, ymin, xmax, ymax、置信度、类别编号和类别名称。5.2 几个实用小技巧调整置信度阈值模型默认会输出置信度大于0.25的检测框。如果你觉得框太多把一些不太像的也框出来了可以提高阈值如果框太少有些物体没检测到可以降低阈值。model.conf 0.5 # 只显示置信度大于50%的检测框 results model(img_url) results.show()只检测特定类别如果你只关心图片里的人和车可以设置只检测这几类。model.classes [0, 2] # 在COCO数据集中0是‘person’2是‘car’ results model(img_url) results.show()保存裁剪出的物体results对象可以直接把每个检测到的物体单独裁剪并保存下来。results model(img_url) results.crop(save_dir./cropped_objects) # 所有检测到的物体会被保存到这个文件夹6. 总结与下一步跟着上面的步骤走一遍你现在应该已经成功启动了YOLO-v5镜像并且用它完成了对网络图片和本地图片的物体检测。我们回顾一下关键步骤环境准备在云平台部署预置的YOLO-v5镜像并通过Jupyter Notebook访问。初次体验加载预训练模型用一行代码对示例图片进行推理并展示和保存带检测框的结果。实际应用上传自己的本地图片进行检测并尝试批量处理多张图片。灵活调整学会了如何切换不同大小的模型、调整检测的置信度和指定检测类别。整个过程你不需要安装Python、不需要配置CUDA、不需要解决令人头疼的依赖冲突。这个镜像为你提供了一个开箱即用的强大检测工具。接下来你可以做什么探索更多功能YOLO-v5的功能远不止于此。你可以尝试用它处理视频视频本质上就是一系列图片进行实时摄像头检测或者在自己的数据集上微调模型这需要你准备标注好的数据。研究代码结构在Jupyter的文件浏览器中进入/root/yolov5/目录看看官方的源代码、工具脚本和文档深入了解其工作原理。应用到实际项目想想你手头有什么需要“看”和“识别”的任务也许是整理手机相册自动分类也许是监控视频流分析都可以用今天学到的技术作为起点。物体检测是计算机视觉的基石而YOLO-v5让你能以最低的成本和门槛接触到这项技术。希望这个“保姆级”教程帮你打开了这扇门。剩下的就是发挥你的想象力去创造和解决实际问题了。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2412992.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!