自然语言处理—BERT

BERT(Bidirectional Encoder Representations from Transformers)

在 ACL 上,Devlin, Chang, Lee 和 Toutanova 发表于 2019 的文章— BERT:Pre-training of deep bidirectional transformers for language understanding。

那么什么是 BERT 呢? 我们先从字面上解释一下什么是 BERT,我们将词分开来一个一个地看来解读什么是 BERT。

  • Bidirectional : 是双向神经网络,这个在学习 RNN 时候我们就了解到如何使用双向 RNN 让每一个词视野更加广阔,不但可以看到其前面词还能看到其后面的词
  • Encoder : 说明 BERT 是编码器
  • Representations : BERT 是完成词的表征的任务的模型,之前我们已经学过了了 word2vec
  • Transformer: 其实 BERT 就是 transform 解码器部分,表示 BERT 结构没有采用 LSTM 这样 RNN 结构,而是采用了 Transformer 这样结构来实现双向循环神经网,Transformer 对象 LSTM 的优势是并行计算

那么 BERT 用途是啥呢

我们先说 BERT 的优点,就是在训练 BERT 时候我们不需要人工数据集,随便那些文本资料就可以用于训练 BERT,这些文本可以小说、技术书刊、杂志或者是网页等等来做预训练。

但是 BERT 也不是完美无缺,BERT 需要大量算力才能进行 BERT 的训练

  • 简单介绍一下 BERT 中的两个任务
  • 以及两个任务的作用
  • 如何将两个任务设计到一个网络结构中

双向变换器编码表征(Devlin at al, 2018)

  • 上下文
  • (巨大)的 transformer 编码器

| 版本 | block |hidden units |heads | parameters |GPU | time |
|---|---|---|---|---|---|---|---|
| Small | 12 | 768 | 12 | 110M | 16TPU | 14 days|
| Large | 24 | 1024 | 16 | 340M |

  • 如果要用亚马逊的服务可能要花费 1 万美元才能训练出小规模的 BERT

  • I went to the bank to deposit some money

  • I went to the back to sit down

预训练

  • 提高模型的泛化能力的方法

  • 随机遮挡一个单词,让编码器(encoder)根据上下文来预测被遮挡的单词

  • 将两句话放在一起,让编码器(encoder)来判断这两句话是不是原文中相邻的两句话

任务1—预测被遮挡的单词

  • 输入是文本序列,经过预处理,有关如何对文本进行预处理之前已经给大家介绍过,将文本切分为单词
  • 经过 Embedding Layer 将每一个单词映射为词向量
  • 经过 Transformer 的编码器(Encoder) 后得到
  • 从一句话中对所有 token 进行随机选取,每一个 token 选取可能性都是 15%
    • 80% 用 <mask> 替换掉这个词
    • 10% 用一个 <random token> 来替换掉这个词
    • 10% 用 cat 这个词
  • transformer 中有注意力机制,所以 u_M 和输入 x 并不是一对一映射,而是多对一映射。

从上图不难看出 u_M 包含所有输入序列的单词信息,所以可以用 u_M 来预测遮挡位子的单词

将特征向量 u_M 输入到一个 Softmax 分类器,经过 Softmax 分类器得到一个 p 向量,p 也是概率分布,我们希望 p 向量接近 cat 的 one-hot 向量

Loss = crossEntropy(e,p)

任务2—预测下一个句子

  • 50% 将下一句随机替换为
  • 将 Transformer 输出,输入到一个全联接层来预测序列对
  • 给定句子 calculus is a branch of math
  • 在原文中下一个句子是 it was developed by newton and leibniz
  • panda is native to south central china

接下来是如何制作数据集,就是将两句话拼接起来,在最第一句话前面添加 [CLS] 在两句话之间添加 [SEP] 表示分隔两句话

其实之前有关 mask 掉一个词来通过预测 masked 的词来训练词向量,大家还能理解,但是对于为什么通过预测两个句子,大家可能就会有点摸不着头脑了,为什么这样做有易于词向量的训练呢?

  • 在 Transformer Encoder 有 self-attention 层,self-attention 就是要找相关性,这种任务便于找到相关性

组合任务

小例子 1
  • input
    • calculus is a [MASK] of math
    • it [MASK] developed by newton and leibniz
  • Targets
    • true
    • branch
    • was
小例子 2
  • input
    • calculus is a branch of math
    • panda is native to [MASK] central china
  • Targets
    • flase
    • south
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章