分两个文件讲解:1、train.py训练文件 2、test.py测试文件.
1、train.py训练文件
1)从主函数入口开始,设置相关参数
# 主函数入口
if __name__ == '__main__':
# ----------------------------#
# 是否使用Cuda
# 没有GPU可以设置成Fasle
# ----------------------------#
cuda = True
# ----------------------------#
# 是否使用预训练模型
# ----------------------------#
pre_train = True
# ----------------------------#
# 是否使用余弦退火学习率
# ----------------------------#
CosineLR = True
# ----------------------------#
# 超参数设置
# lr:学习率
# Batch_size:batchsize大小
# ----------------------------#
lr = 1e-3
Batch_size = 2
Init_Epoch = 0
Fin_Epoch = 100
2)创建模型
# 创建模型
model = ResNet(Bottleneck, [3, 4, 6, 3], num_classes=10)
#判断是否需要预训练模型,在1)已经设置pre_train=True,这里会加载预训练模型,
#为"logs/resnet50-mnist.pth"。
#这里加载的是预训练模型的权重参数,实例化到本地模型ResNet上
if pre_train:
model_path = 'logs/resnet50-mnist.pth'
model.load_state_dict(torch.load(model_path))
#判断cuda是否可用,如果cuda可用,模型将调用GPU,否则将调用CPU
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
model = model.to(device)
3)创建数据集
# ----------------------------#
root='data/' :路径
train=True :训练设置为True
transform=transforms.ToTensor() :转化成Tensor
download=True :下载
# ----------------------------#
train_dataset = datasets.MNIST(root='data/', train=True,
transform=transforms.ToTensor(), download=True)
#这里train = False, download=False,此时下载验证集
test_dataset = datasets.MNIST(root='data/', train=False,
transform=transforms.ToTensor(), download=False)
4)加载数据集
# ----------------------------# #DataLoader加载数据集 batch_size=Batch_size 批量输入 shuffle=True 打乱数据 num_workers=0 单个工作进程 # ----------------------------# gen = DataLoader(dataset=train_dataset, batch_size=Batch_size, shuffle=True, num_workers=0) gen_test = DataLoader(dataset=test_dataset, batch_size=Batch_size // 2, shuffle=True, num_workers=0)
5)设置损失函数和优化器
#损失函数为交叉熵损失 softmax_loss = torch.nn.CrossEntropyLoss() #优化器选择Adams optimizer = torch.optim.Adam(model.parameters(), lr)
6)设置学习率
#如果CosineLR = True,学习率为CosineAnnealingLR,否则为StepLR
if CosineLR:
lr_scheduler = torch.optim.lr_scheduler.CosineAnnealingLR(optimizer, T_max=5, eta_min=1e-10)
else:
lr_scheduler = torch.optim.lr_scheduler.StepLR(optimizer, step_size=1, gamma=0.92)
7)训练
# ----------------------------#
epoch_size 训练集一次加载多少个batch
epoch_size_val 验证集一次加载多少个batch
# ----------------------------#
epoch_size = len(gen)
epoch_size_val = len(gen_test)
# ----------------------------#
Init_Epoch 起始训练为0
Fin_Epoch 终止训练为100次
fit_one_epoch()函数进行训练数据
lr_scheduler.step()一次训练结束后,学习率进行更新
# ----------------------------#
for epoch in range(Init_Epoch, Fin_Epoch):
fit_one_epoch(net=model, softmaxloss=softmax_loss, epoch=epoch, epoch_size=epoch_size,epoch_size_val=epoch_size_val, gen=gen, gen_test=gen_test, Epoch=Fin_Epoch, cuda=cuda)
lr_scheduler.step()
2、test.py测试文件
展示运行结果

1)整段讲解
import torch from nets.resnet50 import ResNet,Bottleneck import os from torchvision import datasets, transforms from torch.utils.data import DataLoader from torch.autograd import Variable import torchvision import cv2 import time # 设置权重文件路径 PATH = './logs/resnet50-mnist.pth' # 谁知手动输入单次识别字数 Batch_Size = int(input('每次预测手写字体图片个数:')) # 加载模型 model = ResNet(Bottleneck, [3, 4, 6, 3], num_classes=10) model.load_state_dict(torch.load(PATH)) model = model.cuda() # 进入测试程序 model.eval() # 设置测试数据集并加载 test_dataset = datasets.MNIST(root='data/', train=False, transform=transforms.ToTensor(), download=False) gen_test = DataLoader(dataset=test_dataset, batch_size=Batch_Size, shuffle=True) # 进入循环 while True: # 获取图片和标签 images, lables = next(iter(gen_test)) img = torchvision.utils.make_grid(images, nrow=Batch_Size) img_array = img.numpy().transpose(1, 2, 0) # 获取开始时间 start_time = time.time() # 输出预测结果 outputs = model(images.cuda()) _, id = torch.max(outputs.data, 1) end_time = time.time() # 打印用时和预测结果,由于输出的id为tensor,这里必须转换为numpy print('预测用时:', end_time-start_time) print('预测结果为', id.data.cpu().numpy()) # 展示图片 cv2.imshow('img', img_array) cv2.waitKey(0)



















