收藏!小白也能看懂:Transformer残差连接新处理方式,大模型学习必备!
本文介绍了Kimi团队提出的一种新的Transformer残差连接处理方式旨在解决传统Transformer模型中“PreNorm稀释”问题。通过引入“注意力残差”每一层使用Softmax机制选择性地组合前层输出有效缓解了深层网络训练中的梯度消失问题。此外为了降低内存占用团队还提出了“块注意力残差”方案将连续层分组为块块内使用标准残差连接块间使用注意力机制。实验结果表明该方法在多个基准测试中均有显著提升且推理延迟开销低是Transformer模型训练的有效改进方案。Transformer中残差连接的新处理方式Kimi发布了一种处理Transformer中残差连接的新方法而这一设计自2015年ResNets首次被提出以来基本未曾被改动过。注ResNet残差网络是2015年提出的一种深度神经网络架构其核心创新是“残差连接”或称“跳跃连接”它允许梯度直接流过网络极大地缓解了深层网络训练中的梯度消失问题使得训练成百上千层的网络成为可能。自此残差连接成为了包括Transformer在内的许多现代深度学习模型的标配组件。今天我们就来深入解析一下他们的具体做法在一个标准的Transformer模型中每一个子层无论是注意力层还是前馈神经网络MLP层都会计算出一个输出并通过一个残差连接将该输出加回到输入上。注这里提到的“残差连接”是Transformer架构如BERT GPT等模型的基础的一个关键设计。它指的是将某个层的输入直接与该层的输出相加。这样做的目的是为了在网络层数很深时帮助信息特别是梯度信号更好地向前和向后传播从而让模型更容易训练和优化。Transformer中的每个“块”通常包含一个多头自注意力子层和一个前馈神经网络子层每个子层都包裹着这样的残差连接。在超过40层的深度网络中任何一层的隐藏状态都仅仅是之前所有层输出的等权求和。每个层都以权重1参与贡献因此所有层的重要性完全均等。这引发了一个称为“PreNorm稀释”的问题随着隐藏状态在层与层之间不断累积其幅度会随网络深度线性增长。注“PreNorm稀释”是Transformer架构中的一个特定现象。在标准Transformer中通常在每个子层如自注意力层或前馈网络层之前会进行层归一化LayerNorm这种设置称为“PreNorm”。当每一层的输出都以固定权重1即不做任何缩放直接加到输入即前一层的输出上时隐藏状态的数值会随着层数增加而不断累加导致其“幅度”数值大小线性增大。这可能会给深层网络的训练带来数值不稳定性并削弱归一化的效果。任何一个新网络层的贡献都会逐渐淹没在已经非常庞大的残差信号之中。这意味着更深层的网络被迫生成越来越大的输出才能对最终结果产生一点影响从而导致训练过程变得不稳定。Kimi团队观察并指出了以下现象RNN将所有先前的令牌信息压缩到一个随时间推移的单一状态中这导致了处理长程依赖关系的问题。而残差连接则是将所有先前网络层的信息压缩到一个随深度推移的单一状态中。Transformer通过用注意力机制取代循环机制解决了RNN在序列维度上的第一个难题。如今Kimi团队引入了“注意力残差”将这一相似的核心思想应用到了网络深度维度上。与之前以固定权重1将所有前层输出简单相加不同现在每一层都使用Softmax注意力机制来有选择地决定每一层前层输出应被赋予多少权重。因此每一层会拥有一个学习到的查询向量并通过关注所有前层输出来计算一个加权组合。这些权重是依据输入动态变化的因此不同的词元能够根据实际有效的信息检索并融合不同网络层的特征表示。这就是“完全注意力残差”如下图所示中间的图表所示。但是这个想法存在一个实际的工程问题。完全注意力残差Full AttnRes需要在内存中保留所有网络层的输出并且在分布式训练中这些数据还需要在不同的流水线阶段之间进行通信。为了解决这个问题他们引入了块注意力残差Block Attention Residuals如下图所示右侧的示意图。其核心思想是将连续的层大致分组为若干个块例如8个块。在每个块内部各层的输出通过标准残差连接进行求和。但在不同块之间则使用注意力机制来选择性地组合块级别的表征。这一设计将内存占用从O(Ld)降低到了O(Nd)其中N是块的数量。当前块内的层还可以关注到该块内迄今为止已计算的部分和因此局部的信息流不会丢失。并且原始的词嵌入始终作为一个独立的来源可用这意味着网络中的任何层都可以选择性地回溯到最原始的输入。论文中的实验结果如下• 块注意力残差达到了一个使用了1.25倍计算量的基线大语言模型的损失水平。• 推理延迟开销低于2%使其成为一个实用的即插即用替代方案。• 在一个拥有480亿参数激活30亿的Kimi Linear模型上使用1.4万亿 token 进行训练后该方法在他们测试的所有基准上都有提升GPQA-Diamond 7.5数学能力 3.6HumanEval 3.1MMLU 1.1。自2015年ResNet提出以来残差连接基本保持不变。这可能是第一个既有充分理论动机又能在实际中以可忽略的开销大规模部署的修改。如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线科技企业深耕十二载见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事早已在效率与薪资上形成代际优势我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套AI 大模型突围资料包✅ 从零到一的 AI 学习路径图✅ 大模型调优实战手册附医疗/金融等大厂真实案例✅ 百度/阿里专家闭门录播课✅ 大模型当下最新行业报告✅ 真实大厂面试真题✅ 2026 最新岗位需求图谱所有资料 ⚡️ 朋友们如果有需要《AI大模型入门进阶学习资源包》下方扫码获取~① 全套AI大模型应用开发视频教程包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点② 大模型系统化学习路线作为学习AI大模型技术的新手方向至关重要。 正确的学习路线可以为你节省时间少走弯路方向不对努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划带你从零基础入门到精通③ 大模型学习书籍文档学习AI大模型离不开书籍文档我精选了一系列大模型技术的书籍和学习文档电子版它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。④ AI大模型最新行业报告2025最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。⑤ 大模型项目实战配套源码学以致用在项目实战中检验和巩固你所学到的知识同时为你找工作就业和职业发展打下坚实的基础。⑥ 大模型大厂面试真题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我精心整理了一份大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。以上资料如何领取为什么大家都在学大模型最近科技巨头英特尔宣布裁员2万人传统岗位不断缩减但AI相关技术岗疯狂扩招有3-5年经验大厂薪资就能给到50K*20薪不出1年“有AI项目经验”将成为投递简历的门槛。风口之下与其像“温水煮青蛙”一样坐等被行业淘汰不如先人一步掌握AI大模型原理应用技术项目实操经验“顺风”翻盘这些资料真的有用吗这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理现任上海殷泊信息科技CEO其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证服务航天科工、国家电网等1000企业以第一作者在IEEE Transactions发表论文50篇获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的技术人员这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。以上全套大模型资料如何领取
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2459541.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!