文章目录
- 输入
- 输出
- 运行
- 如何运行
- 解决关联性
- attention score
- 额外的
- Q K V
 
- Multi-head self-attention
- Positional Encoding
- Truncated Self-attention
- 影像处理
- vs CNN
- vs RNN
- 图上的应用
输入

输出

运行

 链接(Attention Is All You Need)
如何运行

解决关联性

attention score
也可以不用softmax,relu也行。
 
额外的

Q K V

 
 
 
Multi-head self-attention

 
Positional Encoding

 https://arxiv.org/abs/2003.09229

Truncated Self-attention
只看一个小范围。
 
影像处理

vs CNN

 
vs RNN

图上的应用




















