保姆级教程:用PyTorch Quantization给YOLOv5模型‘瘦身’,部署到Jetson Nano上跑起来
边缘计算实战YOLOv5量化部署到Jetson Nano的全流程指南当目标检测遇上边缘设备模型体积和计算效率就成了生死线。本文将手把手带您完成YOLOv5从训练到量化再到Jetson Nano部署的完整链路分享我们团队在嵌入式AI落地过程中积累的一线经验。1. 环境配置与工具链搭建在开始量化之旅前需要搭建完整的工具链环境。Jetson Nano作为边缘计算设备其ARM架构与常规x86环境存在诸多差异这也是第一个容易踩坑的地方。基础环境准备# 在x86开发机上安装PyTorch和量化工具包 conda create -n yolov5_quant python3.8 conda activate yolov5_quant pip install torch1.10.0cu113 torchvision0.11.1cu113 -f https://download.pytorch.org/whl/torch_stable.html pip install nvidia-pyindex pip install pytorch-quantization --extra-index-url https://pypi.ngc.nvidia.com注意必须使用NVIDIA提供的pytorch-quantization包而非PyPI上的同名包后者功能不完整对于Jetson Nano端需要刷写最新的JetPack镜像建议4.6.1以上版本然后安装适配的PyTorch# Jetson Nano上的安装命令 sudo apt-get install python3-pip libopenblas-base libopenmpi-dev pip3 install Cython pip3 install numpy1.19.4 wget https://nvidia.box.com/shared/static/p57jwntv436lfrd78inwl7iml6p13fzh.whl -O torch-1.10.0-cp36-cp36m-linux_aarch64.whl pip3 install torch-1.10.0-cp36-cp36m-linux_aarch64.whl2. YOLOv5模型准备与量化策略选择量化前需要准备训练好的FP32模型。我们使用YOLOv5s作为示例这是该系列中最轻量的版本from models.yolo import Model # 加载预训练模型 model Model(yolov5s.yaml) # 从配置文件构建 model.load_state_dict(torch.load(yolov5s.pt)[model].float().state_dict()) # 量化前必须设置为eval模式 model.eval()量化方法对比方法类型精度损失计算开销适用场景PTQ静态量化中等低快速部署对精度要求不苛刻QAT量化感知训练小高对精度敏感场景动态量化较大最低仅权重可量化时使用对于目标检测任务建议采用QAT量化感知训练方案虽然训练时间较长但能最大程度保持mAP指标。以下是QAT的实现关键步骤from pytorch_quantization import quant_modules quant_modules.initialize() # 替换所有可量化模块 # 重新定义模型结构此时会自动替换为量化版本 quant_model Model(yolov5s.yaml) quant_model.load_state_dict(torch.load(yolov5s.pt)[model].float().state_dict()) # 配置量化描述符 from pytorch_quantization.nn import TensorQuantizer TensorQuantizer.use_fb_fake_quant True # 使用PyTorch原生伪量化3. 量化校准与微调技巧量化校准是影响最终精度的关键环节。YOLOv5的特殊性在于其检测头包含大量小尺度预测这对量化提出了更高要求。校准数据准备使用训练集的子集约500张图片确保包含各类别代表性样本保持与推理时相同的预处理流程def calibrate_model(model, calib_loader): model.eval() with torch.no_grad(): for data, _ in calib_loader: model(data.cuda()) # 启用校准模式 from pytorch_quantization import nn as quant_nn quant_nn.TensorQuantizer.calibrate True calibrate_model(quant_model, calib_loader) # 关闭校准并保存统计信息 quant_nn.TensorQuantizer.calibrate False torch.save(quant_model.state_dict(), yolov5s_calibrated.pth)微调策略优化使用原训练学习率的1%作为初始值采用余弦退火学习率调度重点微调检测头部分参数训练epoch数控制在原训练的10-20%optimizer torch.optim.SGD( [{params: quant_model.model[-1].parameters(), lr: base_lr*0.1}], lrbase_lr*0.01, momentum0.9 ) scheduler torch.optim.lr_scheduler.CosineAnnealingLR( optimizer, T_max10, eta_minbase_lr*0.0001 )4. TensorRT引擎转换与部署完成量化后的模型需要转换为TensorRT引擎才能在Jetson Nano上高效运行。这里有两个关键点需要注意ONNX导出时的算子兼容性dummy_input torch.randn(1, 3, 640, 640).cuda() input_names [images] output_names [output] torch.onnx.export( quant_model, dummy_input, yolov5s_quant.onnx, opset_version13, input_namesinput_names, output_namesoutput_names, dynamic_axes{ images: {0: batch}, output: {0: batch} } )TensorRT引擎构建优化/usr/src/tensorrt/bin/trtexec \ --onnxyolov5s_quant.onnx \ --saveEngineyolov5s_quant.engine \ --workspace1024 \ --fp16 \ --int8 \ --verbose部署性能对比模型版本体积(MB)推理时延(ms)mAP0.5FP32原始27.445.20.563PTQ-INT87.122.80.541QAT-INT87.123.10.558实际测试中我们发现Jetson Nano的GPU内存带宽是主要瓶颈。通过以下技巧可以进一步提升性能使用jetson_clocks脚本锁定最高频率启用持久化内核模式批量处理输入图像batch4时效率最佳import pycuda.autoinit import tensorrt as trt class YOLOv5TRT: def __init__(self, engine_path): self.logger trt.Logger(trt.Logger.WARNING) with open(engine_path, rb) as f: self.engine trt.Runtime(self.logger).deserialize_cuda_engine(f.read()) self.context self.engine.create_execution_context() def infer(self, input_tensor): # 输入输出绑定 bindings [] for binding in self.engine: size trt.volume(self.engine.get_binding_shape(binding)) dtype trt.nptype(self.engine.get_binding_dtype(binding)) mem cuda.mem_alloc(input_tensor.nbytes) bindings.append(int(mem)) # 异步推理 stream cuda.Stream() cuda.memcpy_htod_async(bindings[0], input_tensor, stream) self.context.execute_async_v2(bindings, stream.handle) output np.empty(output_shape, dtypenp.float32) cuda.memcpy_dtoh_async(output, bindings[1], stream) stream.synchronize() return output5. 实战中的疑难问题解决在真实项目部署中我们遇到过几个典型问题问题1量化后小目标检测性能骤降原因小目标对应的特征图数值范围小量化分辨率不足解决方案对检测头部分使用更高位宽如10bit量化采用分层量化策略对backbone和head使用不同量化参数问题2TensorRT推理结果与PyTorch不一致原因ONNX导出时某些自定义算子转换错误解决方法使用onnxruntime验证导出模型正确性替换YOLOv5中的Silu激活为ReluTensorRT对Silu支持不佳# 在model.yaml中将所有act参数改为relu backbone: [[-1, 1, Conv, [64, 6, 2, 2]], # 0-P1/2 [-1, 1, Conv, [128, 3, 2]], # 1-P2/4 [-1, 3, C3, [128]], [-1, 1, Conv, [256, 3, 2]], # 3-P3/8 [-1, 6, C3, [256]], [-1, 1, Conv, [512, 3, 2]], # 5-P4/16 [-1, 9, C3, [512]], [-1, 1, Conv, [1024, 3, 2]], # 7-P5/32 [-1, 3, C3, [1024]], [-1, 1, SPPF, [1024, 5]], # 9 ]问题3Jetson Nano上内存不足优化方法使用--workspace参数限制TensorRT内存使用启用GPU内存统计监控考虑使用模型剪枝量化的组合方案# 监控GPU内存使用 tegrastats --interval 1000经过三个实际项目的验证这套量化部署方案可使YOLOv5在Jetson Nano上的能效比提升3-5倍满足大多数嵌入式视觉应用的实时性要求。最关键的是要建立完整的验证流程从模型训练到量化再到部署每个环节都需要有对应的精度和性能评估手段。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2441001.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!