- 💂 个人主页:风间琉璃
- 🤟 版权: 本文由【风间琉璃】原创、在CSDN首发、需要转载请联系博主
- 💬 如果文章对你有帮助、欢迎关注、点赞、收藏(一键三连)和订阅专栏哦
目录
前言
一、LeNet-5
二、LeNet-5网络实现
1.定义LeNet-5模型
2.加载数据集
3.训练模型
4.测试模型
三、实现图像分类
前言
LeNet-5是一个经典的深度卷积神经网络,由Yann LeCun在1998年提出,旨在解决手写数字识别问题,被认为是卷积神经网络的开创性工作之一。该网络是第一个被广泛应用于数字图像识别的神经网络之一,也是深度学习领域的里程碑之一。
一、LeNet-5
下图是 LeNet-5 的网络结构图,它 接受32×32大小的数字、字符图片,经过第一个卷积层得到[b,6, 28,28]形状的张量,经过一个向下采样层,张量尺寸缩小到[b,6,14,14],经过第二个卷积层,得到[b,16,10,10]形状的张量,同样经过下采样层,张量尺寸缩小到[b,16, 5,5],在进入全连接层之前,先将张量 打成[b,16*5*5 ]的张量,送入输出节点数分别为 120、84 的 2 个全连接层,得到[b,84]的张量,最后通过Gaussian connections层,最终输出[b,10]。

LeNet-5的基本结构包括7层网络结构(不含输入层),其中包括2个卷积层、2个降采样层(池化层)、2个全连接层和输出层。LeNet-5 网络层数较少(2 个卷积层和 2 个全连接层),参数量较少,计算代价较低,尤其在现代GPU的加持下,数分钟即可训练好 LeNet-5 网络。
这里网络结构只给了进行卷积核池化前后的特征图的大小,那么如果确定卷积核的尺寸和通道数呢?
1.输入特征层的channel与卷积核的channel相同。
2.输出特征层的channel与卷积核个数相同。
经过卷积后的矩阵尺寸大小计算公式为:
N = (W - F + 2P) / S +1
①输入图片大小WxW
②卷积核Filter大小FxF
③步长S
④panding填充值P
比如输入层接收大小为 32×32 的手写数字图像,卷积层C1包括6个卷积核,每个卷积核的大小为 5×5 ,步长为1,填充为0。因此,每个卷积核会产生一个大小为 28×28 的特征图(输出通道数为6)。
N(28) = (32-5+0)/1 + 1 =27 + 1 = 28
采样层S2采用最大池化(max-pooling)操作,每个窗口的大小为 2×2 ,步长为2。因此,每个池化操作会从4个相邻的特征图中选择最大值,产生一个大小为 14×14 的特征图(输出通道数为6)。这样可以减少特征图的大小,提高计算效率,并且对于轻微的位置变化可以保持一定的不变性。其他的网络层也是一样的,可以相互推算。
二、LeNet-5网络实现
1.定义LeNet-5模型
根据上面网络模型使用Pytorch实现LeNet-5网络模型的搭建
import torch.nn as nn
import torch.nn.functional as F
class LeNet(nn.Module):
    def __init__(self):
        super(LeNet, self).__init__()
        self.conv1 = nn.Conv2d(in_channels=3, out_channels=6, kernel_size=5)
        self.pool1 = nn.MaxPool2d(2, 2)
        self.conv2 = nn.Conv2d(6, 16, 5)
        self.pool2 = nn.MaxPool2d(2, 2)
        self.fc1 = nn.Linear(16*5*5, 120)
        self.fc2 = nn.Linear(120, 84)
        self.fc3 = nn.Linear(84, 10)
    def forward(self, x):
        x = F.relu(self.conv1(x))     # input(3, 32, 32) output(6, 28, 28)
        x = self.pool1(x)             # output(6, 14, 14)
        x = F.relu(self.conv2(x))     # output(16, 10, 10)
        x = self.pool2(x)             # output(16, 5, 5)
        x = x.view(-1, 16*5*5)        # output(16*5*5)
        x = F.relu(self.fc1(x))       # output(120)
        x = F.relu(self.fc2(x))       # output(84)
        x = self.fc3(x)                # output(10)
        return x
if __name__ == '__main__':
    net = LeNet()
    print(net)2.加载数据集
使用CIFAR10数据集,加载数据集后还需要对数据集进行预处理,如图像格式转换(Tensor)、归一化、标准化等处理。然后使用DataLoader分批次加载数据集,用于训练和测试。
# 预处理
    transform = transforms.Compose(
        [transforms.ToTensor(),  # 将图像转化为tensor,并做归一化:[0,1] 数据类型转换 + 标准化
         transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))  # 输入数据的数值范围标准化为特定的均值和标准差
         ]
    )
    # 加载训练集
    train_set = torchvision.datasets.CIFAR10(root='./data', train=True, transform=transform, download=True)
    train_loader = torch.utils.data.DataLoader(train_set, batch_size=36, shuffle=True, num_workers=0)
    # 加载测试集
    val_set = torchvision.datasets.CIFAR10(root='./data', train=False, transform=transform, download=True)
    val_loader = torch.utils.data.DataLoader(val_set, batch_size=5000, num_workers=0)
    # 使用next函数从val_data_iter迭代器中获取下一个批次的数据
    val_data_iter = iter(val_loader)
    val_image, val_label = next(val_data_iter)3.训练模型
实例化网络模型,并进行网络模型的训练。
    net = LeNet()
    loss_function = nn.CrossEntropyLoss()
    optimizer = optim.Adam(net.parameters(), lr=0.001)
    for epoch in range(10):  # 训练次数
        # 每次训练的损失值
        running_loss = 0.0
        # 获取批次的索引 step 和数据 data
        for step, data in enumerate(train_loader, start=0):
            # 获取images,labels; data是一个列表[images, labels]
            images, labels = data
            # 将优化器的梯度缓冲区清零
            optimizer.zero_grad()
            # forward + backward + optimize
            # 前向传播,得到模型的输出
            outputs = net(images)
            # 计算模型的输出和真实标签 labels 之间的损失(误差)
            loss = loss_function(outputs, labels)
            # 通过反向传播算法计算损失对模型参数的梯度
            loss.backward()
            # 根据梯度更新模型参数,这是优化器的一次参数更新步骤
            optimizer.step()4.测试模型
在每训练到500次时,进行一次测试。
            # 测试
            running_loss += loss.item()
            if step % 500 == 499:
                # 关闭梯度计算。因为在验证或测试时不需要计算梯度,所以可以提高运行效率
                with torch.no_grad():
                    outputs = net(val_image)  # [batch, 10]
                    # 选择输出中概率最高的类别作为预测结果,并且是在第一个维度[batch,10]
                    # max 返回找到最大的值以及该值所在的位置(索引),是一个元组(val ,index)
                    predict_y = torch.max(outputs, dim=1)[1]
                    accuracy = torch.eq(predict_y, val_label).sum().item() / val_label.size(0)
                    print('[%d, %5d] train_loss: %.3f  test_accuracy: %.3f' %
                          (epoch + 1, step + 1, running_loss / 500, accuracy))
                    running_loss = 0.0在网络训练完成后,记得保存网络模型,用于后续的部署和使用。
save_path = './Lenet.pth'
torch.save(net.state_dict(), save_path)三、实现图像分类
将上面保存的模型用来测试其他图片,检验模型训练的效果。
import torch
import torchvision.transforms as transforms
from PIL import Image, ImageDraw
from model import LeNet
def main():
    # 图片预处理
    transform = transforms.Compose(
        [transforms.Resize((32, 32)),
         transforms.ToTensor(),
         transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])
    # 分类标签
    classes = ('plane', 'car', 'bird', 'cat',
               'deer', 'dog', 'frog', 'horse', 'ship', 'truck')
    # s实例化网络
    net = LeNet()
    # 加载网络模型
    net.load_state_dict(torch.load('Lenet.pth'))
    img = Image.open('dog.jpg')
    # [H, W, C] --> [C, H, W]
    image = transform(img)
    # 增加维度:[N, C, H, W],使满足网络的输入维度要求
    image = torch.unsqueeze(image, dim=0)
    with torch.no_grad():
        # 得到预测结果
        outputs = net(image)
        # 得到分类标签
        predict = torch.max(outputs, dim=1)[1].numpy()
    print(classes[int(predict)])
    draw = ImageDraw.Draw(img)
    text = classes[int(predict)]
    # 文本的左上角位置
    position = (10, 10)
    # fill 指定文本颜色
    draw.text(position, text, fill='red')
    img.show()
if __name__ == '__main__':
    main()
预测结果:


结束语
 感谢你观看我的文章呐~本次航班到这里就结束啦 🛬
希望本篇文章有对你带来帮助 🎉,有学习到一点知识~
躲起来的星星🍥也在努力发光,你也要努力加油(让我们一起努力叭)。
最后,博主要一下你们的三连呀(点赞、评论、收藏),不要钱的还是可以搞一搞的嘛~
不知道评论啥的,即使扣个666也是对博主的鼓舞吖 💞 感谢 💐




















