DAY33MLP神经网络的训练
一、 核心知识点回顾1. 环境配置基础核心操作PyTorch 与 CUDA 的安装、验证及环境排查。关键命令查看显卡信息nvidia-smiCMD 中使用。CUDA 检查验证 PyTorch 是否能调用 GPU 加速.cuda()。2. MLP 训练全流程PyTorch 标准五步法步骤核心内容关键要点a. 数据预处理归一化、转换为张量Tensor将数据转化为模型可计算的数值格式为训练做准备。b. 模型定义继承nn.Module类1. 构建网络层如全连接层nn.Linear。2. 编写forward前向传播逻辑。c. 损失与优化定义损失函数、优化器分类任务常用交叉熵损失回归任务常用 MSE 损失优化器如 SGD、Adam。d. 训练流程迭代训练前向传播 ➔ 计算损失 ➔ 反向传播 ➔ 参数更新。e. 可视化绘制 Loss 曲线监控训练过程判断模型是否收敛或过拟合。二、 关键注意事项避坑指南这是实际编码中极易出错的细节必须严格遵守数据类型规范分类任务标签Label必须转换为LongTensor类型。原因交叉熵损失函数CrossEntropyLoss要求目标标签为整数索引若传入 Float 类型会报错。回归任务标签Label必须转换为FloatTensor类型通常为torch.float32。原因回归预测的是连续数值需保持与输出数据类型一致。三、 模型设计思路当前设定图片中提到选择了2 层隐藏层且固定神经元数量。类比理解这类似于传统机器学习中指定超参数是一种基础的网络结构设定。未来方向文中提到 “调参我们未来再提”暗示后续会涉及神经元数量调整、网络层数加深等更复杂的模型优化内容。总结该内容处于深度学习实战入门阶段重点在于规范搭建 MLP 训练流程。核心在于环境打通与数据类型匹配只要保证标签类型正确就能顺利完成第一次神经网络的训练与可视化。import torch import torch.nn as nn import torch.optim as optim import numpy as np import matplotlib.pyplot as plt # 1. 环境配置与数据准备 # 检查CUDA是否可用自动选择设备GPU/CPU device torch.device(cuda if torch.cuda.is_available() else cpu) print(f使用设备: {device}) # 生成模拟数据集分类任务 # 输入特征维度10类别数5样本数1000 input_dim 10 num_classes 5 sample_num 1000 # 生成随机特征float32类型 x torch.randn(sample_num, input_dim, dtypetorch.float32).to(device) # 分类任务标签必须是LongTensor整数类型 y_classification torch.randint(0, num_classes, (sample_num,), dtypetorch.long).to(device) # 回归任务标签必须是FloatTensor浮点类型 y_regression torch.randn(sample_num, 1, dtypetorch.float32).to(device) # 2. 定义MLP模型2层隐藏层 class MLP(nn.Module): def __init__(self, input_dim, hidden_dim164, hidden_dim232, output_dim1, task_typeclassification): super(MLP, self).__init__() # 2层隐藏层固定神经元数量后续可调参 self.fc1 nn.Linear(input_dim, hidden_dim1) # 第一层隐藏层 self.fc2 nn.Linear(hidden_dim1, hidden_dim2) # 第二层隐藏层 self.fc3 nn.Linear(hidden_dim2, output_dim) # 输出层 self.relu nn.ReLU() # 激活函数 self.task_type task_type def forward(self, x): # 前向传播 out self.relu(self.fc1(x)) out self.relu(self.fc2(out)) out self.fc3(out) # 分类任务输出层不加激活CrossEntropyLoss内置Softmax if self.task_type classification and output_dim 1: return out # 回归任务直接输出连续值 return out # 3. 初始化模型、损失函数、优化器 # 分类任务配置 model_class MLP(input_diminput_dim, output_dimnum_classes, task_typeclassification).to(device) criterion_class nn.CrossEntropyLoss() # 分类损失 optimizer_class optim.Adam(model_class.parameters(), lr0.001) # 优化器 # 回归任务配置可选 # model_reg MLP(input_diminput_dim, output_dim1, task_typeregression).to(device) # criterion_reg nn.MSELoss() # 回归损失 # optimizer_reg optim.Adam(model_reg.parameters(), lr0.001) # 4. 训练流程 epochs 100 # 训练轮数 loss_history [] # 记录损失变化 model_class.train() # 切换到训练模式 for epoch in range(epochs): # 前向传播 outputs model_class(x) loss criterion_class(outputs, y_classification) # 反向传播 参数更新 optimizer_class.zero_grad() # 清空梯度 loss.backward() # 反向传播 optimizer_class.step() # 更新参数 # 记录损失 loss_history.append(loss.item()) # 每10轮打印一次 if (epoch 1) % 10 0: print(fEpoch [{epoch1}/{epochs}], Loss: {loss.item():.4f}) # 5. 可视化Loss曲线 plt.plot(loss_history) plt.xlabel(Epoch) plt.ylabel(Loss) plt.title(MLP Training Loss Curve) plt.grid(True) plt.show() # 6. 简单验证 model_class.eval() # 切换到评估模式 with torch.no_grad(): # 禁用梯度计算加速 test_x torch.randn(10, input_dim, dtypetorch.float32).to(device) pred model_class(test_x) pred_label torch.argmax(pred, dim1) # 取概率最大的类别 print(\n测试样本预测结果类别索引, pred_label.cpu().numpy())代码关键部分解释环境配置自动检测 CUDA优先使用 GPU 加速对应图片中nvidia-smi和 CUDA 验证若没有 GPU自动降级到 CPU 运行不影响核心功能。数据类型严格匹配分类任务标签y_classification用torch.longLongTensor解决交叉熵损失的类型报错问题回归任务标签y_regression用torch.float32FloatTensor符合回归任务的数值类型要求。MLP 模型结构严格按照图片要求设置2 层隐藏层fc1、fc2神经元数量默认 64/32后续可调参激活函数用 ReLU深度学习常用输出层根据任务类型适配分类不加激活回归直接输出。训练五步法前向传播 → 计算损失 → 清空梯度 → 反向传播 → 更新参数完全匹配 PyTorch 标准训练流程。可视化绘制 Loss 曲线直观监控模型收敛情况对应图片中 “可视化” 要求。运行前置条件安装依赖包pip install torch numpy matplotlib若要使用 GPU需确保电脑有 NVIDIA 显卡安装对应版本的 CUDA 和 cuDNNPyTorch 版本与 CUDA 版本匹配无需手动验证代码会自动检测。总结核心重点分类任务标签用 LongTensor回归用 FloatTensor这是避免训练报错的关键MLP 训练流程环境配置→数据准备→模型定义→损失 / 优化器→训练迭代→可视化是 PyTorch 深度学习的通用模板扩展性当前隐藏层神经元数量固定后续可通过调整hidden_dim1/hidden_dim2实现调参优化。浙大疏锦行
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2440798.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!