109_神经网络的决策层:线性层(Linear Layer)与数据展平详解
在经过卷积层提取特征、池化层压缩空间、激活函数引入非线性后神经网络进入了最后的决策阶段。线性层Linear Layer也称为全连接层Fully Connected Layer负责将这些抽象特征映射到最终的分类结果上。1. 线性层的核心原理线性层执行的是最基本的线性变换。x输入向量。A权重矩阵Weights也就是神经网络需要学习的核心参数。b偏置Bias。本质它将输入空间的每一个点与输出空间的每一个点进行“全连接”。例如将 196608 个特征值压缩映射到 10 个分类结果如 CIFAR-10 的十个类别上。2. 关键操作数据展平Flatten线性层通常要求输入是一维向量除了 Batch 维度。但卷积层的输出通常是四维张量[Batch, Channel, Height, Width]。因此在进入线性层之前必须进行“展平”操作。文件中展示了两种展平方法方法一torch.reshape方法二torch.flatten(推荐)3. 实战代码构建全连接分类网络文件通过以下代码展示了如何将 CIFAR-10 的图片通过线性层降维4. 什么是神经网络在“训练”的东西文件开篇提到“神经网络训练的就是函数系。”在线性层中这对应的就是权重Weights和偏置Bias。通过不断的迭代网络会调整这些系数使得当一张“猫”的图片输入时输出向量中对应“猫”那个位置的数值最大。5. 总结一个完整的视觉网络结构通过这一系列的笔记处理我们现在可以勾勒出一个经典 CNN 的完整结构输入层读取图像。特征提取层卷积Conv2d 激活ReLU 池化MaxPool2d。转换层展平Flatten。分类决策层线性层Linear。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2435276.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!