语义分割入门:抛开公式,用动画和代码图解FCN中的‘反卷积’与‘跳跃连接’到底在做什么
语义分割实战用动画思维理解FCN中的反卷积与跳跃连接当第一次接触语义分割时我被那些能将图片中每个像素都精确分类的神经网络深深吸引。但真正让我困惑的是——网络如何从一张缩小的特征图恢复出与原图相同尺寸的预测结果这就像看着魔术师从帽子里拉出一条似乎无限长的彩带。本文将用动画般的思维过程配合PyTorch代码演示带你直观理解FCN全卷积网络中两个最核心的机制反卷积和跳跃连接。1. 从图像分类到像素级理解传统图像分类网络如VGG16通过一系列卷积和池化层逐渐缩小图像尺寸最后通过全连接层输出整个图像的类别预测。但当我们想要知道每个像素属于什么类别时比如区分道路、车辆、行人这种结构就显得力不从心了。全卷积网络(FCN)的创新在于全卷积结构用卷积层替代全连接层使网络可以处理任意尺寸的输入上采样操作通过反卷积层逐步放大特征图多级特征融合利用跳跃连接结合不同深度的特征# 传统CNN与FCN结构对比示意图 import torch.nn as nn # 传统CNN分类网络 class CNN(nn.Module): def __init__(self): super().__init__() self.features nn.Sequential( nn.Conv2d(3, 64, 3), nn.ReLU(), nn.MaxPool2d(2), nn.Conv2d(64, 128, 3), nn.ReLU(), nn.MaxPool2d(2) ) self.classifier nn.Sequential( nn.Linear(128*6*6, 256), # 固定尺寸的全连接层 nn.Linear(256, 10) ) # FCN语义分割网络 class FCN(nn.Module): def __init__(self): super().__init__() self.encoder nn.Sequential( nn.Conv2d(3, 64, 3), nn.ReLU(), nn.MaxPool2d(2), nn.Conv2d(64, 128, 3), nn.ReLU(), nn.MaxPool2d(2) ) self.decoder nn.Sequential( nn.ConvTranspose2d(128, 64, 3, stride2), # 上采样 nn.ConvTranspose2d(64, 32, 3, stride2) )2. 反卷积特征图的放大镜反卷积(Deconvolution)更准确的叫法是转置卷积(Transposed Convolution)。它不是卷积的逆运算而是一种特殊的正向卷积操作可以实现特征图的上采样。2.1 反卷积工作原理图解想象你有一张小尺寸的橡皮泥浮雕特征图现在要把它放大间隔填充在浮雕的每个元素周围插入空白区域类似在像素间插入零值拉伸塑形用卷积核像模具一样在拉伸后的浮雕上滑动填充空白处精细调整通过训练学习最佳的模具形状卷积核权重import torch # 输入2x2的小特征图 input torch.tensor([[[[1., 2.], [3., 4.]]]]) # 定义转置卷积层kernel_size3, stride2, padding1 deconv nn.ConvTranspose2d(1, 1, kernel_size3, stride2, padding1) # 手动设置卷积核权重实际训练中会自动学习 deconv.weight.data torch.tensor([[[[1, 0, 0], [0, 1, 0], [0, 0, 1]]]], dtypetorch.float32) deconv.bias.data.fill_(0) output deconv(input) print(output.shape) # 输出torch.Size([1, 1, 4, 4])这个简单的例子展示了2x2输入如何通过转置卷积放大到4x4。实际FCN中我们会用多层转置卷积逐步放大特征图。2.2 反卷积与普通卷积的对比特性普通卷积转置卷积输入输出关系下采样上采样数学关系矩阵乘法矩阵转置乘法步长作用控制滑动间隔控制插入间隔常见用途特征提取特征图放大3. 跳跃连接让细节不再丢失单纯依靠反卷积上采样会导致细节信息丢失就像过度压缩的JPEG图片放大后变得模糊。FCN通过跳跃连接(Skip Connection)解决了这个问题。3.1 信息流动的高速公路想象你在玩拼图高层特征知道拼图整体是什么比如是一栋房子低层特征知道边缘和颜色细节比如窗户的轮廓跳跃连接就像在拼图时同时参考完整图片和局部细节class FCNWithSkip(nn.Module): def __init__(self): super().__init__() # 编码器(下采样) self.conv1 nn.Conv2d(3, 64, 3, padding1) self.pool1 nn.MaxPool2d(2) self.conv2 nn.Conv2d(64, 128, 3, padding1) self.pool2 nn.MaxPool2d(2) # 解码器(上采样) self.deconv1 nn.ConvTranspose2d(128, 64, 3, stride2, padding1) self.deconv2 nn.ConvTranspose2d(64, 32, 3, stride2, padding1) def forward(self, x): # 下采样路径 x1 self.pool1(nn.ReLU()(self.conv1(x))) # 保存第1层特征 x2 self.pool2(nn.ReLU()(self.conv2(x1))) # 保存第2层特征 # 上采样路径 跳跃连接 y self.deconv1(x2) y nn.ReLU()(y x1) # 与第1层特征融合 y self.deconv2(y) return y3.2 FCN的三种跳跃结构FCN论文提出了三种不同精度的结构FCN-32s仅使用最深层的特征上采样32倍FCN-16s融合深层和中间层特征上采样16倍FCN-8s融合三层特征上采样8倍效果最好实验表明融合更多浅层特征的FCN-8s能保留更多细节分割边界更精确。4. 完整FCN实战从理论到代码现在我们将实现一个完整的FCN-8s网络使用预训练的VGG16作为编码器。4.1 网络架构详解class FCN8s(nn.Module): def __init__(self, pretrained_net, n_class): super().__init__() self.n_class n_class self.pretrained_net pretrained_net # 定义额外的卷积层替代全连接层 self.conv6 nn.Conv2d(512, 512, kernel_size1) self.conv7 nn.Conv2d(512, 512, kernel_size1) # 定义上采样层 self.deconv1 nn.ConvTranspose2d(512, 512, kernel_size3, stride2, padding1, output_padding1) self.deconv2 nn.ConvTranspose2d(512, 256, kernel_size3, stride2, padding1, output_padding1) self.deconv3 nn.ConvTranspose2d(256, 128, kernel_size3, stride2, padding1, output_padding1) # 最终分类层 self.classifier nn.Conv2d(128, n_class, kernel_size1) def forward(self, x): # 获取VGG16各阶段特征 features self.pretrained_net(x) pool3 features[x3] # 1/8尺寸 pool4 features[x4] # 1/16尺寸 pool5 features[x5] # 1/32尺寸 # 上采样路径 x F.relu(self.conv6(pool5)) x F.relu(self.conv7(x)) x self.deconv1(x) # 放大到1/16 x x pool4 # 第一次跳跃连接 x self.deconv2(x) # 放大到1/8 x x pool3 # 第二次跳跃连接 x self.deconv3(x) # 放大到原图尺寸 x self.classifier(x) return x4.2 训练技巧与可视化训练FCN时需要注意预训练编码器通常冻结VGG16的前几层参数学习率策略解码器部分使用更大的学习率损失函数像素级交叉熵损失# 训练过程示例 def train(): # 加载预训练VGG vgg VGGNet(pretrainedTrue) model FCN8s(vgg, n_class21).cuda() # 不同部分使用不同学习率 optimizer optim.SGD([ {params: model.pretrained_net.parameters(), lr: 1e-4}, {params: model.conv6.parameters(), lr: 1e-3}, {params: model.conv7.parameters(), lr: 1e-3}, {params: model.deconv1.parameters(), lr: 1e-3}, # ...其他层 ], momentum0.9) # 训练循环 for epoch in range(100): model.train() for images, masks in train_loader: outputs model(images.cuda()) loss criterion(outputs, masks.cuda()) optimizer.zero_grad() loss.backward() optimizer.step() # 验证和可视化 visualize_predictions(images, outputs, masks)4.3 效果展示与比较通过可视化不同阶段的特征图可以直观理解网络如何逐步重建细节FCN-32s输出模糊的分割边界丢失小物体FCN-16s输出改善了中等尺寸物体的识别FCN-8s输出清晰的分割边界保留更多细节在实际项目中FCN-8s通常能达到较好的平衡点。超过这个粒度如FCN-4s带来的提升有限但计算成本显著增加。5. 超越FCN现代语义分割的发展虽然FCN开创了端到端语义分割的先河但仍有改进空间感受野限制无法有效建模长距离依赖关系细节恢复不足即使有跳跃连接精细结构仍可能丢失计算效率多次上采样操作计算成本高这些局限催生了后续的改进模型如U-Net更密集的跳跃连接医学图像分割标杆DeepLab系列引入空洞卷积扩大感受野PSPNet金字塔池化模块捕获多尺度信息然而FCN的核心思想——全卷积结构和跳跃连接——仍然是现代语义分割网络的基石。理解这些基础概念是掌握更复杂模型的关键第一步。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2535850.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!