文章目录
- 输入
- 输出
- 运行
- 如何运行
- 解决关联性
- attention score
- 额外的
- Q K V
- Multi-head self-attention
- Positional Encoding
- Truncated Self-attention
- 影像处理
- vs CNN
- vs RNN
- 图上的应用
输入

输出

运行

链接(Attention Is All You Need)
如何运行

解决关联性

attention score
也可以不用softmax,relu也行。

额外的

Q K V




Multi-head self-attention


Positional Encoding

https://arxiv.org/abs/2003.09229

Truncated Self-attention
只看一个小范围。

影像处理

vs CNN


vs RNN

图上的应用




















