LSTM实战:遗忘门、输入门与输出门解决长期依赖
LSTM实战遗忘门、输入门与输出门解决长期依赖本文是上篇《Word2Vec与CBOW算法实战》的续篇。上篇解决了如何用词向量表示词语的问题但还有一个关键问题没解决如何让模型理解前后词语之间的关联关系这就是 RNN 到 LSTM 要解决的问题。一、为什么RNN无法处理长期依赖1.1 RNN的基本结构RNN循环神经网络的核心思想是每个时间步的隐藏状态不仅取决于当前输入还取决于上一时间步的隐藏状态。x(t) ──→ [U] ──┐ ├──→ [激活] ──→ h(t) ──→ y(t) h(t-1) ─→ [W] ──┘RNN 的三个特点每个时间步使用的参数 U、W、b都是共享的这是 RNN 的重要特点引入隐状态 hhidden state来提取序列特征输入和输出序列必须等长1.2 RNN 的致命缺陷梯度消失问题来源“当出现’我的职业是程序员…我最擅长的是电脑’。需要预测最后的词’电脑’需要先前提到的’职业是程序员’的上下文。相关信息和当前预测位置之间的间隔相当大。”根本原因反向传播时梯度需要从时间步 t 传回到时间步 1。每经过一个时间步梯度就要乘以参数 W。当 W1 时梯度 W^n × 初始梯度 → 随着 n 增大趋近于 0这就是梯度消失Vanishing Gradient距离越远早期信息对当前预测的影响越弱最终完全消失。图解虚线箭头表示远处词语的信息传递随着距离增加梯度指数衰减导致 RNN 只能记住短期依赖无法捕捉长序列中的语义关联。二、LSTM登场选择性记忆的解决方案2.1 LSTM的核心思想LSTMLong Short-Term Memory Network长短时记忆网络由 Sepp Hochreiter 和 Jürgen Schmidhuber 于 1997 年提出专门解决 RNN 的长期依赖问题。生动比喻“当你想在网上购买生活用品时会查看用户评价。大脑下意识记住’好看’、‘真酷’等关键词而不关心’我’、‘也’、‘是’等字样。第二天你问评价说了什么你不可能会全部记住而是说出大脑里记得的主要观点比如’下次肯定还会来买’。”LSTM 的核心思想记忆能力有限记住重要的忘记无关紧要的。2.2 LSTM vs RNN 的根本区别区别RNNLSTM信息传递方式仅隐状态 h(t)隐状态 h(t) 细胞状态 C(t)门控机制无有3个门长期依赖❌ 无法处理✅ 通过门控选择性地传递梯度消失严重通过门控机制缓解三、LSTM核心三大门机制LSTM 引入了**门Gate**的概念每个门是一个神经网络层输出 0~1 之间的值控制信息流动的比例。3.1 遗忘门Forget Gate功能决定从上一个细胞状态中丢弃哪些信息。f σ(Wf · [h(t-1), x(t)] bf)将 h(t-1) 和 x(t) 同时传入 sigmoid 层输出 f ∈ [0, 1]0 表示完全丢弃1 表示完全保留例如当新输入是新的主语时遗忘门会降低旧主语相关信息的权重3.2 输入门Input Gate功能决定向细胞状态中添加哪些新信息。分为两步第一步候选值生成 C~ tanh(Wc · [h(t-1), x(t)] bc) 第二步决定更新哪些 i σ(Wi · [h(t-1), x(t)] bi)sigmoid 输出 i ∈ [0, 1]决定候选值中哪些值得保留tanh 输出 -1~1生成候选值向量两者的乘积才是真正添加到细胞状态的新信息3.3 细胞状态更新C(t) f * C(t-1) i * C~f * C(t-1)遗忘门控制丢弃旧信息i * C~输入门控制添加新候选信息这就是 LSTM 的核心公式选择性遗忘 选择性记忆3.4 输出门Output Gate功能决定当前隐藏状态 h(t) 中输出哪些信息。o σ(Wo · [h(t-1), x(t)] bo) h(t) o * tanh(C(t))tanh 将细胞状态压缩到 [-1, 1]突出重要信息o 控制输出比例生成最终的隐藏状态 h(t)h(t) 即为当前时间步的输出向量四、LSTM完整前向传播时序图LSTM 核心思想选择性遗忘 选择性记忆 长期依赖的精准控制五、RNN vs LSTM vs GRU 深度对比核心对比特性RNNLSTMGRU门控机制无3个门遗忘/输入/输出2个门更新/重置长期依赖❌ 梯度消失✅ 门控选择记忆✅ 门控处理细胞状态❌ 无✅ 专有细胞状态 C(t)❌ 无参数量最少最多W×4矩阵中等训练难度最难梯度消失较难门控计算开销大较易结构简单适用场景短序列、简单模式长序列、需长期记忆性能接近LSTM资源受限推理速度最快较慢3个门计算较快表达能力★☆☆☆☆★★★★★★★★★☆一句话选型短序列 → RNN长序列 → LSTM资源受限 → GRU综合最优 → LSTM。六、LSTM典型应用场景应用说明示例NLP 文本生成根据前文预测下一个词输入今→输出天→输出气…机器翻译编码器LSTM读取源语言解码器LSTM生成目标语言“I love China” → “我爱中国”情感分析捕捉评论中的情感倾向“太好吃了下次还来” → 正面(0.92)股票预测捕捉时序数据中的长期趋势[p(t-7)…p(t)] → p(t1)七、总结与扩展LSTM 的本质LSTM RNN 三大门 信息传递通道 × 三个信息过滤器 遗忘门选择性丢弃 输入门选择性添加 输出门选择性输出核心优势通过门控机制LSTM 解决了 RNN 的梯度消失问题能够选择性记忆长期信息同时自动遗忘无关信息。扩展方向方向说明GRULSTM 的简化版只有 2 个门参数量更少效果接近 LSTM双向LSTMBi-LSTM同时考虑前向和后向上下文效果更好多层LSTM堆叠多层 LSTM提取更高级的语义特征注意力机制Transformer 的核心让模型自动关注重要信息Seq2Seq编码器-解码器架构机器翻译、对话生成的基础
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2528007.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!