保姆级教程:用星图AI平台训练PETRV2-BEV模型,新手也能玩转自动驾驶
保姆级教程用星图AI平台训练PETRV2-BEV模型新手也能玩转自动驾驶1. 前言为什么你需要这篇教程如果你对自动驾驶技术感兴趣想亲手训练一个能“看懂”周围环境的AI模型但又被复杂的代码、昂贵的硬件和繁琐的环境配置劝退那么你来对地方了。今天我将带你用最简单的方式在云端算力平台上从零开始训练一个先进的自动驾驶感知模型——PETRV2-BEV。你不需要准备几万块的显卡也不需要花几天时间搭建环境。跟着这篇教程你只需要一台能上网的电脑就能在几小时内完成整个训练流程并亲眼看到模型识别车辆、行人的效果。这篇文章会像朋友聊天一样把每一步都掰开揉碎了讲给你听。我们不讲那些让人头疼的理论公式只关注“怎么做”和“为什么这么做”。准备好了吗让我们开始吧。2. 准备工作认识你的“云端实验室”在开始动手之前我们先花几分钟了解一下我们要用的工具和它们背后的逻辑。2.1 什么是BEV它为什么重要想象一下你开车时的视角你看到的是前方的道路、两边的车辆和行人。但对于自动驾驶系统来说它最初“看到”的只是各个摄像头拍下的一幅幅平面照片。BEVBird‘s Eye View鸟瞰图模型就像一个神奇的翻译官它的任务是把这些不同角度的2D照片“拼”成一个从正上方往下看的统一地图。这样做的好处太大了决策更简单在鸟瞰图上判断车辆位置、规划路径比在原始图片上分析要直观得多。信息更全面它能融合前后左右多个摄像头的画面消除单个视角的盲区。行业标准现在几乎所有主流的自动驾驶方案都在用BEV或类似的技术。所以学会训练一个BEV模型就等于拿到了进入自动驾驶感知领域的一张重要门票。2.2 为什么选择PETRV2和星图AI平台关于PETRV2 它是百度飞桨Paddle3D套件里的一个明星模型。你不用管它具体用了什么高深算法只需要知道它有几个对我们新手特别友好的特点效果好、代码开源、社区资料多。这意味着你遇到问题很容易找到解决方案。关于星图AI平台 训练AI模型尤其是处理图片、视频的模型对电脑显卡GPU要求很高。自己买一块高性能显卡不仅贵而且搭建环境很麻烦。星图AI平台https://ai.csdn.net/compute-power解决了这个问题。你可以把它想象成一个“云端网吧”即开即用它已经预装好了我们需要的所有软件和环境Python、PaddlePaddle、CUDA等。按需付费你用几个小时就付几个小时的钱不用了关掉就行不用承担买硬件的成本。性能强大提供的是专业的服务器显卡训练速度比普通电脑快得多。简单说我们就是去租一个已经装修好、工具齐全的“云端工作室”在里面完成我们的模型训练。3. 第一步创建你的云端训练环境这是整个过程中唯一需要在网页上操作的一步非常简单。3.1 找到并启动镜像访问星图AI算力平台。在镜像广场搜索“训练PETRV2-BEV模型”。你会看到一个预置好的镜像点击“部署”或类似的按钮。在配置页面选择你需要的GPU型号和租用时长。对于本教程的mini数据集测试选择最基础的GPU配置和1-2小时就完全足够了。点击确认等待系统启动实例。这个过程大概需要5-10分钟系统正在后台为你拉取一个包含所有必要软件和代码的“系统快照”。小提示实例启动后平台会给你一个SSH连接命令包含IP、端口和密码把它复制下来下一步要用。4. 第二步连接环境与初始化现在我们通过一个终端Windows用户可以用PowerShell或MobaXtermMac/Linux用户直接用系统终端连接到那台云端电脑。4.1 连接服务器打开你的终端粘贴上一步复制的SSH命令它看起来像这样ssh -p 31264 root123.45.67.89输入密码平台提供的后回车。看到命令行提示符变成root...的样子恭喜你你已经进入了云端服务器的“桌面”。4.2 激活训练环境连接成功后我们首先要进入一个准备好的Python工作环境避免软件版本冲突。conda activate paddle3d_env运行这行命令后命令行开头可能会出现(paddle3d_env)的字样说明环境激活成功了。验证一下可以输入python --version看看Python版本或者nvidia-smi看看GPU是否正常识别。看到GPU信息表格就说明我们的“武器”准备好了。5. 第三步获取“教材”和“习题集”——下载模型与数据训练AI模型就像教小孩认东西我们需要两样一个有点基础但还需要学习的“大脑”预训练模型和一套带答案的“图卡”标注好的数据集。5.1 下载预训练模型在终端里运行wget -O /root/workspace/model.pdparams https://paddle3d.bj.bcebos.com/models/petr/petrv2_vovnet_gridmask_p4_800x320/model.pdparams这个命令会从百度的服务器下载一个已经用海量图片初步训练过的PETRV2模型。使用预训练模型是深度学习的常见技巧能大大缩短训练时间提高最终效果相当于让模型从“大学生”水平开始学而不是从“婴儿”开始。5.2 下载自动驾驶数据集我们使用NuScenes数据集的迷你版v1.0-mini它体积小下载快适合快速实验。# 下载数据集压缩包 wget -O /root/workspace/v1.0-mini.tgz https://www.nuscenes.org/data/v1.0-mini.tgz # 创建一个文件夹用来存放解压后的数据 mkdir -p /root/workspace/nuscenes # 解压数据到刚才创建的文件夹 tar -xf /root/workspace/v1.0-mini.tgz -C /root/workspace/nuscenesNuScenes是自动驾驶领域最常用的公开数据集之一里面包含了真实道路场景下拍摄的视频、激光雷达扫描数据以及每辆车、每个行人、每个障碍物的精确位置标签。迷你版虽然小但足以让我们体验完整的流程。6. 第四步正式训练之旅所有材料备齐我们开始最关键的部分。6.1 数据预处理把原始数据变成模型能懂的“语言”首先进入Paddle3D的代码目录cd /usr/local/Paddle3D然后运行预处理脚本将下载的原始数据转换成PETRV2模型训练所需的特定格式。# 清理可能存在的旧数据标注文件 rm /root/workspace/nuscenes/petr_nuscenes_annotation_* -f # 生成新的数据标注信息 python3 tools/create_petr_nus_infos.py --dataset_root /root/workspace/nuscenes/ --save_dir /root/workspace/nuscenes/ --mode mini_val这个步骤会生成一些.pkl文件它们相当于数据的“索引目录”告诉模型哪些图片用于训练哪些用于测试以及每张图片里有什么物体。6.2 测试初始精度看看模型“入学前”什么水平在开始训练前我们先让模型用下载的预训练权重在测试集上跑一遍看看它初始能力如何。这能验证我们的环境、数据是否正确。python tools/evaluate.py \ --config configs/petr/petrv2_vovnet_gridmask_p4_800x320_nuscene.yml \ --model /root/workspace/model.pdparams \ --dataset_root /root/workspace/nuscenes/运行后你会看到一长串评估结果。别被吓到我们主要看几个关键指标mAP: 0.2669 ... NDS: 0.2878mAP平均精度可以简单理解为模型找东西的“准确率”分数越高越好。0.2669不算高说明这个预训练模型在NuScenes数据上还没专门学习过。NDSNuScenes检测分数一个综合评分结合了位置、大小、方向等多种误差是主要的评判标准。看到这些数字输出并且没有报错就说明一切正常可以开始“教学”了。6.3 启动模型训练开始“教学”运行训练命令这是最核心的一步python tools/train.py \ --config configs/petr/petrv2_vovnet_gridmask_p4_800x320_nuscene.yml \ --model /root/workspace/model.pdparams \ --dataset_root /root/workspace/nuscenes/ \ --epochs 100 \ --batch_size 2 \ --log_interval 10 \ --learning_rate 1e-4 \ --save_interval 5 \ --do_eval我来解释一下这几个关键参数--epochs 100让模型把训练集数据完整地学习100遍。--batch_size 2每次扔2张图片给模型学习。这个数受限于GPU内存越大训练越快但可能放不下。--learning_rate 1e-4学习率相当于模型每次调整的“步伐”。步伐太大容易学歪太小学得慢。--do_eval每学完一轮一个epoch都在验证集上测试一下方便我们监控进度。--save_interval 5每5轮保存一次模型快照防止训练中断白费功夫。命令运行后终端会开始滚动日志显示损失loss在下降精度accuracy在上升。这个过程需要一些时间你可以去喝杯咖啡。6.4 可视化训练过程看看“学习曲线”干等着太无聊我们可以启动一个可视化工具实时观看训练情况。在一个新的终端窗口或使用tmux/screen工具SSH连接到同一台服务器然后运行visualdl --logdir ./output/ --host 0.0.0.0这个命令启动了VisualDL服务。但是它运行在云服务器的某个端口比如8040上我们本地电脑看不到。所以需要做一个“端口转发”再打开一个本地终端窗口运行平台提供的那个SSH命令但稍作修改ssh -p 31264 -L 0.0.0.0:8888:localhost:8040 root你的服务器地址这个命令的意思是把我本地电脑的8888端口隧道连接到云服务器上的8040端口。现在在你本地电脑的浏览器里访问http://localhost:8888。神奇的事情发生了你看到了VisualDL的网页界面里面会有损失曲线、精度曲线的图表你能清晰地看到模型是不是在稳步变好。6.5 模型导出把学会的技能“固化”下来训练完成后或者中途你觉得效果不错了我们需要把模型保存成一种可以独立使用的格式推理格式。# 清理并创建一个干净的目录存放最终模型 rm -rf /root/workspace/nuscenes_release_model mkdir -p /root/workspace/nuscenes_release_model # 执行导出 python tools/export.py \ --config configs/petr/petrv2_vovnet_gridmask_p4_800x320_nuscene.yml \ --model output/best_model/model.pdparams \ --save_dir /root/workspace/nuscenes_release_model导出的模型通常包含两个主要文件一个描述模型结构model.pdmodel一个存储模型学到的参数model.pdiparams。这样以后你想用这个模型做识别就不需要带着整个训练代码了直接调用这两个文件就行。6.6 运行Demo看看训练成果最激动人心的时刻到了让我们用刚训练好的模型实际处理一些场景看看它的“眼力”如何。python tools/demo.py /root/workspace/nuscenes/ /root/workspace/nuscenes_release_model nuscenes这个Demo脚本会加载测试集中的一些场景用你的模型进行推理并把识别结果用图片或动画的形式展示出来。你会看到模型在图片上画出的一个个3D框标注出它识别到的车辆、行人。虽然用mini数据集训练的效果可能不会非常惊艳但当你看到那些框框准确地框住物体时成就感绝对是满满的7. 总结与下一步恭喜你你已经成功在云端完成了一次完整的自动驾驶BEV模型训练。回顾一下我们做了什么租用算力在星图AI平台一键获取了带环境的GPU服务器。准备材料下载了预训练模型和标准数据集。数据加工把原始数据转换成模型需要的格式。模型训练启动了训练过程并实时监控学习状态。成果验收导出模型并运行Demo看到了可视化结果。这个过程看似步骤不少但每一步都有其明确的目的。最重要的是你无需担心硬件和环境可以把全部精力集中在理解流程和模型本身上。如果你想更进一步尝试完整数据集教程里也提供了xtreme1数据集的训练命令在文档的“第四”部分。你可以找更大的数据集来训练效果会显著提升。调整超参数比如试试不同的learning_rate、batch_size看看模型效果有什么变化。研究代码看看/usr/local/Paddle3D目录下的模型配置文件.yml文件和代码理解模型结构。部署应用思考如何将这个训练好的模型集成到一个真正的自动驾驶模拟系统甚至小车中。自动驾驶的感知世界大门已经向你打开。这次成功的训练是一个绝佳的起点。记住最重要的不是复现我的每一步而是理解每一步背后的“为什么”。祝你接下来的探索之旅顺利获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2462063.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!