文章目录 前言一、传统 RNN/CNN 存在的串行计算问题二、Transformer 如何实现并行计算?三、Transformer 的 Encoder 和 Decoder 如何并行四、结论 前言 亲爱的家人们,创作很不容易,若对您有帮助的话,请点赞收藏加关注哦,您的关注是我持续创作的动力,谢谢大家!有问题请私信或联系邮箱:fn_kobe@163.com 一、传统 RNN/CNN 存在的串行计算问题 二、Transformer 如何实现并行计算? 三、Transformer 的 Encoder 和 Decoder 如何并行 四、结论