002、YOLOv1深度解析:You Only Look Once的开创性架构与核心思想
从一次深夜调试说起上周在部署一个老版本的实时检测模型时我又遇到了那个经典问题检测框在物体快速移动时总会出现“抖动”相邻帧之间的预测结果不一致。同事建议上卡尔曼滤波做后处理我却在想——如果模型本身就能看到“全局”信息是不是就能减少这种时序上的不一致这让我想起了八年前第一次读YOLOv1论文时的震撼为什么一定要把检测问题拆成区域提议和分类两步为什么不能直接回归YOLOYou Only Look Once这个名字起得实在精妙它点破了传统两阶段方法的本质矛盾你看两次就必然存在信息割裂。今天我们就回到2016年看看这个“只看一次”的革命性思想是怎么从论文走向现实的。核心思想把检测变成回归问题在YOLOv1之前主流是R-CNN系列。先让模型“扫一眼”找出可能区域Region Proposal再对这些区域“仔细看”进行分类和精修。这就像先圈出图片里所有可能是猫的角落再一个个确认是不是猫、猫在哪里。YOLO说太麻烦了。我们人类看图片时一眼就知道“左下角有只黑猫”不需要先假设一百个可能位置。那模型为什么不能这样YOLOv1的做法粗暴直接把输入图片分成S×S的网格论文里是7×7。每个网格负责预测B个边界框通常是2个和这些框的置信度同时还要预测C个类别的概率。注意这里的关键每个网格只预测一组类别概率不管它预测多少个框这些框都属于同一类物体。这个设计后来被吐槽了不少我们后面会讲。网络架构像分类网络那样简单YOLOv1的主干是GoogLeNet的变种24个卷积层接2个全连接层。现在看这个结构平平无奇但在当时有个重要暗示检测网络可以直接用分类网络改。后面YOLO系列乃至整个单阶段检测的发展都受益于这个思路。输入图片被缩放到448×448——这个分辨率在当年显卡上已经算吃紧的了。输出是一个7×7×30的张量。这30个通道怎么来的前10个两个边界框的坐标和置信度每个框需要x,y,w,h四个坐标1个置信度共5个两个框就是10个后20个PASCAL VOC数据集的20个类别概率这里有个实现细节容易踩坑坐标x,y是相对于当前网格左上角的偏移归一化到0-1之间w,h是相对于整张图片的宽高。很多自己复现的代码在这里归一化方式写错导致训练时loss震荡。# 伪代码示意别直接抄defdecode_box(pred,grid_size):# pred: [batch, 7, 7, 30]# 提取坐标部分boxespred[...,:10]# 前10个通道是框# 这里有个坑sigmoid处理x,y指数处理w,hxytorch.sigmoid(boxes[...,0:4])# 实际是x1,y1,x2,y2两组whtorch.exp(boxes[...,4:8])# 指数确保宽高为正# 更坑的是原论文的w,h是开根号的# 作者说这样能缓解大框小框的损失不平衡whtorch.sqrt(wh)# 很多复现代码漏了这一步损失函数三部分博弈YOLOv1的损失函数设计体现了早期单阶段检测的权衡坐标损失只计算负责物体的那个框与GT IoU最大的那个。这里用了平方根让网络更关注小框——大框差几个像素无所谓小框差几个像素就没了。置信度损失包含物体的框要置信度高不包含的要低。负样本不包含物体的权重给得低些λ_noobj0.5不然负样本太多会淹没正样本信号。分类损失简单的交叉熵。我当年复现时在这里栽过跟头三个损失的平衡系数需要仔细调。论文里坐标损失权重给5分类损失给1但实际数据集物体大小分布不同这个比例得动。如果发现检测框总是偏小可能是坐标损失权重太高了如果分类不准但框很准可能是反过来。那些“坑”与局限YOLOv1发布后效果惊艳但用起来问题也不少1. 网格只能预测一个类这是最被诟病的设计。7×7的网格对于密集小物体简直是灾难——如果一张图里同一网格有两只不同类别的鸟模型只能预测其中一个。后来的v2版本赶紧改成了每个锚框独立分类。2. 边界框形状太受限每个网格预测的两个框是“自由竞争”的没有先验形状引导。这导致模型要学的东西太多特别是对于极端长宽比的物体比如滑雪杆很难拟合。SSD和YOLOv2引入锚框anchor就是为了解决这个问题。3. 下采样率太大输入448×448最后特征图只有7×7相当于64倍下采样。小物体在最后特征图上可能连一个像素都没有怎么可能检测好所以YOLOv1在小物体检测上表现很差论文里也承认这点。4. 全连接层破坏空间信息最后用全连接层直接输出张量相当于把特征图“拍扁”空间对应关系被弱化了。后来全检测模型都改用全卷积就是为了保持空间对应。为什么它仍然重要尽管有这些局限YOLOv1的价值在于打开了新思路速度革命45 FPS的实时检测比R-CNN快100倍。这证明了“精度换速度”在工业场景的巨大价值。端到端简化不需要单独训练区域提议网络不需要多阶段微调一个损失函数训到底。全局上下文因为每个预测都看到了整张图相比滑动窗口方法YOLOv1的假阳性更少不会把背景斑块识别成物体。我自己的经验是在硬件受限的嵌入式场景YOLOv1的变体至今仍有应用。去掉全连接层、减少通道数、量化到8位在树莓派上还能跑15FPS检测些常规物体足够用。它的简洁性本身就是一种优势。给实践者的建议如果你今天还要接触YOLOv1比如维护老项目记住这几条数据预处理必须对齐论文里图片先缩放到448×448再减去ImageNet均值。很多开源代码这里没写清楚输入分布不对会导致模型永远训不好。学习率策略要温和YOLOv1没有BN层训练容易发散。建议从1e-3开始用warmup每10个epoch降10倍。可视化中间特征一定要把7×7网格对应的感受野画出来看看每个网格到底“看”到了什么。你会发现有些网格学会了专门检测某种尺度或位置的物体——这就是YOLO的隐式分工。别指望小物体检测对于小于32×32像素的物体建议直接上多尺度训练或换新版YOLO。v1在这点上先天不足。最后说句实话现在直接拿YOLOv1做新项目的不多了但理解它的设计困境能帮你更好地理解后来者v2到v10每个改进到底在解决什么。好的架构不是凭空产生的都是在前人的坑里长出来的。下一期我们讲YOLOv2——那些年我们给YOLO加的“锚框”和“批量归一化”。看看如何让这个简单的框架一步步逼近两阶段方法的精度同时保持速度优势。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2484025.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!