【NLP】--- Self-Attention机制


一. Self-Attention

1.1. Self-Attention 概念及作用

通过对一句话中的不同单词分配不同的权重来帮助模型理解输入语句的其他位置信息, 达到更好的编码效果.

如在 Attention Is All You Need 中所提到的一个例子:

“The animal didn’t cross the street because it was too tired”

  • 如何判别句子中的 “it” 对于机器来说指的是 “animal” 还是 “street” ?

而使用 Self-Attention 处理后能发现, it指的是 “animal”:

1.2. Self-Attention 实现原理

  1. 第一步: 输入的是句子中第i个单词embedding处理后的词向量
  2. 第二步: 将上一步骤得到的一个词向量经过一定处理得到下述三个向量:
    • Query Vector, 查询向量
    • Key Vector, 键向量
    • Value Vector, 值向量
  3. 第三步: 将该单词得到的Query Vector分别乘上输入语句的每个单词对应得到的Key Vector得到该单词对句子每个单词的得分Score, 该Score决定了对其他单词的关注度
  4. 第四步, 根据上一步骤得到的一系列得分除以Key Vector的维度的平方根(dk\sqrt{d_k})得到新分数以确保更稳定的梯度
  5. 第五步, 根据上一步骤得到的一系列分数进行Softmax处理得到一系列概率值
  6. 第六步, 将上一步骤得到的一系列概率值乘上第二步得到的Value Vector一系列特征向量
  7. 第七步, 将上一步骤得到的一系列特征向量进行求和处理得到句子第i个单词经过self-attention处理后的新向量

1.3. 三个向量获得方法

Query Vector, Key Vector, Value Vector

在原论文中, 输入的经过embedding处理的词向量的维度是512512, 通过设定三个超参数: WQW_Q, WKW_K, WVW_V, 分别将这三个超参数乘上词向量, 分别得到这三个维度为6464向量.

值得注意的是, 之所以得到的这三个新向量的维度都小于原词向量, 是因为这是一种架构选择, 可使multi-headed attention计算(大多数)不变.

二. Multi-Headed Attention

2.1. Multi-Headed Attention 概念及作用

大致处理流程类似于Self-Attention, 但可以使模型关注不同的位置, 更有效的提高Attention层的处理性能.

虽然在Self-Attention中, 最终步骤得到的z1z_1向量包含了一些其他位置的编码,但仍然是当前位置的单词占主要作用,
Multi-Headed Attention正好提供了多个子空间, 更加关注其他位置信息.

2.2. Multi-Headed Attention 基本原理

  1. 使用多个headed, 使用不同的权重组合得到和 heads 数量一样多的不同值的 Query / Key / Value 向量组
  2. 将上述得到的多个 Query / Key / Value 向量组 分别得到对应的相当于每个单词做了多次self-attention计算的新特征向量ZiZ_i
  3. 将上述一系列ZiZ_i进行连接成一个矩阵
  4. 将上一步骤得到的一个矩阵乘上一个额外权重矩阵WoW_o得到经过 Multi-Headed Attention 处理的 最终向量

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章