深度学习里的“自动稳压器”:通俗解读批量规范化(Batch Normalization)
版权声明本文同步发布于个人博客。欢迎交流与转载但请务必注明出处。导读如果你正在训练深层神经网络是否遇到过训练慢如蜗牛、学习率稍大就发散、或者网络深了就不收敛的烦恼今天我们要聊的批量规范化Batch Normalization简称 BN就是解决这些问题的“神器”。它让训练深层网络变得像搭积木一样简单。本文将抛开复杂的数学公式用最通俗的语言带你理解它的核心原理。一、为什么要发明 BN深层网络的“传话游戏”困境想象一下我们在训练一个有几十层甚至上百层的深度神经网络。这就像在玩一个超长的**“传话游戏”**第一个人输入层说了一句正常的话。传到第二个人语气变了一点。传到第十个人可能已经开始大喊大叫或者窃窃私语。等到传到第五十个人声音可能已经完全扭曲听不清原意了。在神经网络中这种现象被称为**“内部协变量偏移”Internal Covariate Shift。简单来说就是每一层接收到的数据分布都在不断变化**。带来的后果训练极慢后面的层不得不花费大量精力去适应前面传来的各种“奇怪”的数据分布而不是专注于学习特征。学习率受限为了防止网络“崩盘”梯度爆炸或消失我们只能使用很小的学习率像蜗牛一样慢慢更新参数。对初始化敏感权重初始化稍微没设好整个网络可能就训不动了。容易过拟合深层网络结构复杂更容易死记硬背训练数据。为了解决这个问题2015年Google的研究人员提出了批量规范化Batch Normalization。二、BN 是如何工作的每层都配个“班主任”如果把神经网络的每一层比作一个班级那么 BN 就是给每个班级安排了一位**“严厉的班主任”**。无论上一层传过来的是什么数据是激动的大喊大叫还是低沉的窃窃私语这位班主任都会执行两步操作第一步强行“标准化”归一化班主任要求全班同学立刻冷静下来统一标准把数据的平均值拉回到 0。把数据的方差波动范围调整为 1。这就好比不管大家刚才多混乱现在全部“坐好”保持统一的音量和节奏。这一步消除了数据分布的剧烈偏移让下一层接收到的数据总是稳稳当当的。第二步赋予“个性”缩放与平移如果只做到第一步那网络就太死板了失去了表达能力。毕竟有些任务可能需要数据“激动”一点有些则需要“平静”一点。所以班主任手里有两个可学习的旋钮参数γ \gammaγ和β \betaβ拉伸旋钮 (γ \gammaγ)决定把数据拉长还是压扁。平移旋钮 (β \betaβ)决定把数据整体往上提还是往下按。关键点在于这两个旋钮不是人为设定的而是网络自己在训练过程中学出来的这意味着网络可以智能地决定“这一层我需要数据稍微活跃一点”或者“那一层我需要数据保守一点”。总结流程原始数据→ \rightarrow→强行标准化大家统一标准→ \rightarrow→学习到的缩放和平移恢复个性→ \rightarrow→传给下一层三、用了 BN 有什么真香定律自从 BN 问世后它几乎成了现代深度学习模型尤其是卷积神经网络的标配。原因很简单好处太多了1. 训练速度飞快 因为数据被“班主任”管住了不会乱跑我们可以放心地使用更大的学习率。以前怕网络崩盘只能小步走现在可以大步流星地跑。在很多实验中加入 BN 后训练速度能提升数倍甚至十倍。2. 不再纠结参数初始化 以前训练深层网络权重初始化是一门玄学稍有不慎就失败。有了 BN无论你怎么初始化权重网络都能很快调整过来大大降低了入门门槛。3. 自带“防沉迷”效果正则化 ️BN 是基于每一个小批量Mini-batch的数据来计算均值和方差的。这意味着每次计算出的统计量都带有一点点随机噪声。这点微小的噪声反而成了一种正则化手段类似 Dropout 的效果防止网络死记硬背训练数据从而提高了模型的泛化能力减少了过拟合。4. 让百层网络成为可能 ️在 BN 出现之前训练超过几十层的网络非常困难。结合后来出现的残差网络ResNetBN 使得训练上百层甚至上千层的网络变得轻而易举推动了深度学习在图像识别等领域的爆发。四、一个小细节训练 vs 预测很多初学者在这里会晕BN 在训练和**预测推理**时的行为是不一样的。训练时上课班主任是根据当下这一小组学生当前的小批量数据的表现来定标准的。因为每组学生不一样所以标准会有微小的波动。正是这种波动带来了正则化的好处。预测时考试这时候可能只来了一个学生单样本没法算小组平均值了也不能让标准忽高忽低。怎么办班主任会拿出平时上课记录下来的“长期平均表现”通过移动平均计算出的全局均值和方差作为标准。这样保证了无论来多少个学生处理标准都是稳定、确定的。技术提示在使用深度学习框架如 PyTorch, TensorFlow时你只需要设置model.train()或model.eval()框架会自动帮你切换这两种模式无需手动计算。五、关于“内部协变量偏移”的争议这里有一个有趣的学术八卦。BN 的原始论文声称它的成功是因为减少了“内部协变量偏移”。但后来的研究发现这个解释可能并不准确甚至有点“望文生义”。现在的学者更倾向于认为BN 之所以有效主要是因为它让损失函数的地形Loss Landscape变得更平滑并且引入了有益的训练噪声正则化而不是单纯解决了分布偏移问题。但这并不影响 BN 的伟大。就像我们不需要完全懂空气动力学的每一个公式也能造出飞机一样只要它好用它就是深度学习工具箱里不可或缺的利器。六、结语批量规范化BN就是给神经网络的每一层装了一个“自动稳压器”。它强行把中间数据的分布拉回正轨避免网络“发疯”同时又留给网络自己调整的空间。这让我们可以训得更深百层以上训得更快大学习率训得更稳不依赖精细调参如果你在构建自己的深度学习模型记得在卷积层或全连接层之后、激活函数之前加上一行BatchNorm。这可能是你提升模型性能最简单、性价比最高的一步
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2517036.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!