【word2vec】算法原理 公式推导

前言

    近两年来由Mikolov等人提出的word2vec模型和应用引起了社会的极大的关注。使用word2vec模型学习的单词的向量表示已经被证明能够携带语义信息,且在各种NLP任务中都是有用的。越来越多的研究人员希望尝试使用word2vec,但我注意到对于word2vec参数学习过程目前还缺乏一个全面解释的资料,因此限制了许多神经网络方面了解不深的人去理解word2vec的工作原理。

    本文提供了word2vec模型的参数更新方程的详细推导和解释,包括原始的连续词袋(CBOW)模型和skip-gram模型,以及一些高级技巧--分层的soft-max和负抽样。

在阅读前你需要一些基础知识:

神经元网络模型和反向传播的基础知识

1 Continuous Bag-of-Word Model(CBOW)

1.1 One-word context  (只考虑目标单词前面一个单词的情况

   在我的下篇博客中有对此原理做一定数学举例:以解数学题的方式来理解word2vec

     我们从Mikolov等人最简单版本的连续词袋模型(CBOW)开始介绍。连续词袋模型做出这样的假设一个单词出现的可能性与其上下文的单词组成有关,这意味着对于CBOW模型我们可以通过给定的上下文单词环境来预测一个目标单词,就像一个二元模型。

    图一为简化的通过上下文来定义词向量的网络模型,我们设置词汇量的大小为V,隐藏层的大小为N,相邻层上的节点完全连接。输入向量是一个one-hot编码的向量,对于给定的输入上下文单词,one-hot编码中每个单词的向量表示为\begin{Bmatrix} x_{1},x_{1},...x_{v} \end{Bmatrix},其中只有一个节点x_{k}为1,而所有其他节点为0。

    输入层和输出层之间的权重可以由V\cdot N的矩阵W表示。

                                                                     \large W=\bigl(\begin{smallmatrix} w_{11} &w_{12} &... &w_{1n} \\ w_{21} &w_{22} &... &w_{2n} \\ .... & ...& ... & ...\\ w_{v1}& w_{v2} &... &w_{vn} \end{smallmatrix}\bigr)

其中W矩阵的每一行代表的是一个与输入层相关的单词的N维向量表示形式 V_{w}。那么假设我们给定了一个输入单词,其单词向量的第k个元素X_{k}=1,其余X_{k'}=0(k'\not\equiv k),则有:

                                                                    \large \large h=x^{T}W=W_{(k,\cdot )}x_{k}=V_{w_{I}}^{T}                                                          (1)

     h向量完全是由W矩阵第k行计算出来的 (因为除X_{k}=1外,其余X_{k'}都为0),V_{w_{I}}是输入字w_{I}的向量表示。

     分析完输入层到隐藏层之后,我们再看隐藏层到输出层,有一个新的的权重矩阵W^{'}=w_{ij}^{'},它也是一个V\cdot N矩阵。使用这些权重w_{ij}^{'},我们可以计算词汇表中每个单词的分数u_{j}

                                                                       \large u_{j}=v_{wj}^{'}^{T}\cdot h                                                                               (2)

其中v_{wj}^{'}是矩阵W^{'}的第j列,然后我们使用一个满足多项式分布的对数线性分类模型soft-max来获取单词的后验概率。

                                                               \large p(w_{j} |w_{I} ) = y_{j}=\frac{e^{u_{j}}}{\sum_{j^{'}=1}^{V} e^{u_{j^{'}}}}                                                         (3)

其中\large y_{j}是输出层中\large j节点的输出,我们将式子(1)和(2)代入式子(3),得到:

                                                              \large p(w_{j} |w_{I} ) = y_{j}=\frac{e^{{V_{w_{O}}^{'}}^{T}V_{w_{I}}}}{\sum_{j^{'}=1}^{V} e^{{V_{w_{j}^{'}}^{'}}^{T}V_{w_{I}}}}                                                  (4)

    注意\large v_{w}\large v_{w}^{'}是单词\large w的两种表示方式,\large v_{w}是矩阵W的一行,是由输入层→隐藏层的权值矩阵。\large v_{w}^{'}是矩阵W^{'}的一列,是由隐藏层→输出层的权值矩阵。在之后的分析中,我们默认将\large v_{w}称为单词w的“input vector”,将\large v_{w}^{'}称为单词w的“output vector”。

更新隐藏层→输出层权重的等式

       现在我们开始推到CBOW模型的权值更新方程。虽然实际的计算方式有点不切实际(之后解释),但是这不妨碍我们推到这个方程来增加我们对这个原始模型的理解。推到过程需要一些神经网络的知识基础:有关反向传播基础知识的综述,请参阅神经元网络模型和反向传播的基础知识

     由上一阶段的描述可知,现在训练的目标(这节只针对一个单词)就是求公式(4)的最大值。其意在当我们给定了上下文信息以及其权值矩阵的情况下,在词汇表中计算每个词成为中心单词的概率,从而预测目标单词。

                                                                    \large \\max(P(w_{0}|w_{I}))\\=max(y_{j*})\\=log(max(y_{j*}))\\=u_{j*}-log(\sum_{j^{'}=1}^{V}e^{u_{j^{'}}} ):=-E                                     (7)

     这里我们设置一个\large E=-P(w_{0}|w_{I})为我们的损失函数(一个最小化的目标),\large j*是目标单词在输出层的索引。可以发现,对于这个损失函数的计算,我们可以将其理解为一种特殊情况下对2个概率分布的交叉熵测量。

    现在我们来推到一下隐藏层到输出层之前的权重更新方程,首选我们对损失函数\large E=-P(w_{0}|w_{I})求关于\large u_{j}的偏导,这样得:

                                                                       \large \frac{\partial E}{\partial u_{j}}=y_{j}-t_{j}:=e_{j}                                                                                (8)

    其中\large t_{j}=1(j=j*)|0(j\neq j*),即当且仅当输出层的第\large j个单词为目标单词时,\large t_{j}的值为1,其余情况都为0。可以看出这个导数实质上是输出层的预测误差\large e_{j}

接下来我们通过链式法则来求出损失函数在\large w_{ij}^{'}上的偏导, 并通过此来计算隐藏层到输出层的梯度。 

                                                                     \large \frac{\partial E}{\partial w_{ij}^{'}}=\frac{\partial E}{\partial u_{j}}\cdot \frac{\partial u_{j}}{\partial w_{ij}^{'}}=e_{j}\cdot h_{i}

之后我们使用随机梯度下降方法,得到最终的隐藏层→输出层的权重更新方程

                                                                   \large w_{ij}^{'}:= w_{ij}^{'}-\eta \cdot e_{j}\cdot h_{i}

或者说:

                                                                    \large \\V_{w_{j}}^{'}:= V_{w_{j}}^{'}-\eta \cdot e_{j}\cdot h       \large j=1,2...V                                                  (11)

其中\large \eta为梯度下降算法的学习率(\large \eta > 0) ,\large e_{j}=y_{j}-t_{j},其中\large h_{i}是隐藏层的第\large i个神经元,\large V_{w_{j}}^{'}是输出单词\large w_{j}的向量表示。可以看出,通过对比输出的可能性\large y_{j}和期望的输出\large t_{j}(取值只能为0或者1)来更新权重意味着我们需要遍历词汇表中所有单词。

这个过程中:

  1.     当 \large y_{i}>t_{j}('高估')的时候,\large e_{j}>0,那么会从\large V_{w_{0}}^{'}上减去隐藏向量\large h的一部分,这样向量\large V_{w_{0}}^{'}就与向量\large V_{w_{I}}相差更远;
  2.     当 \large y_{i}<t_{j}('低估')的时候,\large e_{j}<0,那么会从\large V_{w_{0}}^{'}上加上隐藏向量\large h的一部分,这样向量\large V_{w_{0}}^{'}就与向量\large V_{w_{I}}相差更近;
  3.     当 \large y_{i}\cong t_{j}('相近')的时候,\large e_{j}\cong 0,那么会从\large V_{w_{0}}^{'}的值在更新过程基本不会发生变化;

更新隐藏层→输出层权重的等式

     在介绍完hidden→output的权重矩阵\large W^{'}更新公式之后,我们接着介绍input→hidden的权重矩阵\large W的更新过程。在上面小节中我们解释了损失函数\large E,现在我们对\large E\large h_{i}上求偏导:

                                                    \large \dpi{100} \large \frac{\partial E}{\partial h_{i}}=\sum_{j=1}^{v}\frac{\partial E}{\partial u_{j}}\cdot \frac{\partial u_{j}}{\partial h_{i}}=\sum_{j=1}^{v}e_{j}\cdot w_{ij}^{'}:=EH_{i}                                                            (12)

其中\large h_{i}为隐藏层上第\large i个神经元的输出;\large u_{j}=v_{wj}^{'}^{T}\cdot h,表示输出层第j个神经单元的输入;\large e_{j}=y_{j}-t_{j}为输出层第j个单词的预测误差。所以我们设定一个\large N维的向量\large EH,它的每一个元素代表的是词汇表中的每个单词的预测误差\large e_{j}与词汇表中每个输出单词的向量的乘积之和。

    接下来,我们需要求出损失函数\large E关于权重矩阵\large W的偏导数。首先,我们知道隐藏层激活单元的输出\large h_{i}是输入层的值\large x_{k}与其权重\large w_{kI}的线性组合,由此分解式子(1)我们可以得到:

                                                       \large h=x^{T}W=W_{(k,\cdot )}x_{k}=V_{w_{I}}^{T}

                                                      \large h_{i}=\sum _{k=1}^{V}x_{k}\cdot w_{kI}                                                                                                       (13)

    对于权重矩阵\large W的每一个元素\large w_{kI},通过式(12)和式(13),我们可以求得其在损失函数\large E上的偏导:

                                                       \large \frac{\partial E}{\partial w_{ki}}=\frac{\partial E}{\partial h_{i}}\cdot \frac{\partial h_{i}}{\partial w_{ki}}=EH_{i}\cdot x_{k}                                                                          (14)

     以线性代数的角度来说:

                                                            \large \frac{\partial E}{\partial W}=x \cdot EH=x*EH^{T}                                                                             (15)

    通过式(15)我们得到一个\large V\times N的矩阵,由于\large x只有一个非零值(one-hot),所以\large \frac{\partial E}{\partial W}的结果也只有一行是非零的,非零N维向量就是那一行\large EH的值,由此我们得到权重矩阵\large W的更新方程:

                                                                \large v_{w_{I}}:=v_{w_{I}}-\eta \cdot EH                                                                                      (16)

     其中\large v_{w_{I}}是矩阵\large W中输入单词\large w_{I}(即one-hot编码中非零的哪行对应的单词)的输入向量。我们不用去关心除\large v_{wI}外的其他行向量,因为其\large x_{k}的值为0,由式(14)可以看出其偏导\large \frac{\partial E}{\partial w_{kI}}也为0。

       经过多次迭代反向传播后,误差\large e_{j}等于\large y_{j}等于\large t_{j},通过式子(12)中我们知道:

                                                                     \large EH_{i}=\sum_{j=1}^{v}e_{j}\cdot w_{ij}^{'}

     由此式子(16)我们可以这样理解我们将词汇表中的每个输出向量的一部分添加到输入单词的词向量上。这样就和权值矩阵\large W^{'}的更新类似了:

  1. 如果过高地估计了某个单词\large w_{j}作为最终输出单词的概率(即:\large y_{j}>t_{j}),则上下文单词\large w_{I}(context word )的输入向量与单词\large w_{j}的输出向量在更新的过程中距离就会越来越远。
  2. 与之相反,如果某个单词\large w_{j}作为最终输出单词的概率被低估(即:\large y_{j}<t_{j}),则单词\large w_{I}的输入向量与单词\large w_{j}的输出向量在更新过程中距离就会越来越接近。
  3. 如果对於单词\large w_{I}的概率预测是准确的,则对於单词的输入向量在更新过程中几乎保持不变。

由此可以发现输入单词\large w_{I}词向量的更新取决与其与词汇表中所有单词的预测误差。预测误差越大,则目标单词(预测的单词)对于输入单词词向量的更新过程影响越大。这就是为什么word2vec可以得出‘国王’-'皇后'='男人'-'女人'的结论的原因。国王和皇后是经常一起组合出现的,男人和女人也是组合出现的,属于联想词,所以说,一个词的常规稳定的位置通常会由他的组合词,也就是经常一起出现的词决定的。所以这些最常出现的组合词就决定了目标词的更新规律

1.2 Multi-word context  (考虑上下文多个单词的情况)

        考虑上下文多个单词的CBOW模型如图2所示,可以发现与上一节(one-word context)不同的是, Multi-word context 会去考虑目标单词上下文的多个单词,通过这些个单词来确定目标单词出现的可能性。

     不同与之前方式,在计算Multi-word context 隐藏层的输出值的过程中,会将输入的上下文单词的向量累加起来求均值,接着使用这个均值与input→hidden的权值矩阵\large W相乘,作为最终的结果。公式如下:

                                                               \large h=\frac{1}{C}W\cdot (x_{1}+x_{2}....+x_{C}) 

                                                                   \large =\frac{1}{C}\cdot (V_{w_{1}}+V_{w_{2}}...+V_{w_{C}})                                                               (18)

   其中\large C是上下文的单词个数,\large w_{1},w_{2}...w_{C}指的是上下文的具体的单词,\large V_{w}是单词\large w的输入向量。而损失函数就转化为:

                                                              \large E=-log(p(w_{0}|w_{I,1}...w_{I,C}))

                                                                   \large =-u_{j*}+log(\sum_{j^{'}=1}^{V}e^{u_{j^{'}}})

                                                                   \large =-v_{w_{o}}^{'}^{T} \cdot h+log(\sum_{j^{'}=1}^{V}e^{h\cdot v_{w_{j}}^{'}^{T}} )

       Multi-word context 的损失函数与one-word context的目的一样,公式也与(7)相同,除了用公式(18)的方式来替代了one-word context公式(1)的\large h

        同时,Multi-word context 由隐藏层→输出层的权值矩阵\large W^{'}的更新的过程与one-word context也是一样的。我们直接把之前的公式(11)写在下面:

                                                            \large \\V_{w_{j}}^{'}:= V_{w_{j}}^{'}-\eta \cdot e_{j}\cdot h        \large j=1,2...V                                                              (22)

     通过迭代\large j我们将遍历整个语料库,以此来更新\large W^{'}(隐藏层→输出层的矩阵)。

     更新输入层→隐藏层权值矩阵\large W的方程也与之前的公式(16)类似,只不过现在我们需要对上下文的每一个单词\large w_{I,C}都执行如下更新公式: 

                                                               \large \\V_{w_{I,c}}:= V_{w_{I,c}}-\frac{1}{C}\cdot\eta \cdot E H        \large c=1,2...C                                                       (23)

    其中\large V_{w_{I,c}}是输入上下文单词的第\large c个单词的输入向量;\large \eta表示大于零的学习率;\large EH=\frac{\partial E}{\partial h_{i}}由公式(12)确定。

2 Skip-Gram Model

    skip-gram与上一章介绍的CBOW正好相反,skip-gram是通过中心单词(target word)来预测其上下文的单词(context words)。如图3所示:

 这里我们依然用\large V_{w_{I}}来表示输入层上唯一的输入单词的向量,这样我们对于隐藏层的输出值\large h的计算就可以照搬使用公式(1):

                                                                           \large h=W_{(K,\cdot )}^{T}:=V_{w_{I}}

  这意味着\large h只是矩阵\large W的其中一行。[输入\large x_{k}为一个one-hot向量,\large x_{k}转置与权值矩阵的点积,结果就为\large W矩阵的其中一行]。在输出层上,不同于CBOW模型输出单个多项式分布,Skip-garm模型的输出层输出多个多项式分布。每个输出都使用相同的隐藏层->输出层矩阵计算:

                                                                           \large p(w_{c,j}=w_{O,c}|w_{I})=y_{c,j}=\frac{e^{u_{c,j}}}{\sum_{j^{'}=1}^{V}e^{u_{j^{'}}} }

   其中\large w_{c,j}表示输出层的第c个panel的第j个单词;\large w_{0,c}实际上是输出上下文的第c的单词;\large w_{I}是唯一的输入单词;\large y_{c,j}是输出层第c个panel上第j个神经元节点的输出值(概率);\large u_{c,j}输出层在第c个panel上第j个节点的输出值。但由于输出层的所有panels共享同一权值矩阵\large W^{'},所以:         

                                                                         \large u_{c,j}=u_{j}=V_{w_j}^{'}^{T}\cdot h\large c=1,2,....C     

    *panel:输出层的表示每个上下文单词的神经元的组合

    其中\large V_{w_{j}}^{'}是词汇表中第j个单词\large w_{j}的输出向量, 同样,它也取自于隐藏层→输出层权值矩阵\large W^{'}的其中一列。

     skip-gram模型参数更新的方法实际上与one-word-context模型的差别并不是很大。这里我们将损失函数变为:

                                                                             \large \\E=-log(p(w_{O,1},w_{O,2},....w_{O,C}|w_{I}))\\ =-log(\prod _{c=1}^{C}\frac{e^{u,j_{c}^{*}}}{\sum_{j^{'}=1}^{V}e^{u_{j^{'}}}})\\ =-\sum_{c=1}^{C} u_{j_{c}^{*}}+C\cdot log(\sum_{j^{'}=1}^{V}u_{j^{'}})

其中\large j_{c}^{*}实际上是第c个输出层输出的上下文单词在语料库中的索引。接下来,我们对输出层的每一个panel上的所有激活单元的输入值\large u_{c,j}均求其关于\large E的偏导数得:

                                                                                \large \frac{\partial E}{\partial u_{c,j}}=y_{c,j}-t_{c,j}:=e_{c,j}

    和式子(8)一样,\large e_{c,j}代表着输出层上每个神经元节点的预测误差。为了书写方便,我们假设一个V维度的向量\large EI=\begin{Bmatrix} EI_{1},EI_{2}....EI_{V} \end{Bmatrix}来表示所有上下文单词的预测误差之和,公式表示为:

                                                                                          \large EI_{j}=\sum _{c=1}^{C}e_{c,j}

   然后我们通过链式法则来求得隐藏层→输出层的权值矩阵\large W^{'}关于\large E的偏导,得:

                                                                   \large \frac{\partial E}{\partial w_{i,j}^{'}}=\sum_{c=1}^{C}\frac{\partial E}{\partial u_{c,j}}\cdot \frac{\partial u_{c,j}}{\partial w_{i,j}^{'}} =EI_{j}\cdot h_{i}

    再由此推导出隐藏层→输出层的权值矩阵\large W^{'}的更新方程:

                                                                     \large w_{i,j}^{'}:=w_{i,j}^{'}-\eta \cdot EI_{j}\cdot h_{i}

     或者这样表示:

                                                                 \large V_{w_{j}}^{'}:=w_{j}}^{'}-\eta \cdot EI_{j}\cdot h        \large j=1,2,....V

    这个公式的直观理解与公式(11)的概念相同,除了一点:输出层的预测误差的计算是基于多个上下文单词context words,而不是单个目标单词 target word;需注意的是对于每一个训练样本,我们都要利用该参数更新公式来更新隐藏层→输出层的权重矩阵\large W^{'}的每个元素。

     而对于输入层→隐藏层的权值矩阵\large W的更新过程,与公式(12)到公式(16)类似:

                                                               \large V_{w_{I}}:=V_{w_{I}}-\eta \cdot EH

    但需要注意的是,这里的\large EH中累加的\large e_{j}要用\large EI_{j}替代:

                                                                \large EH_{i}=\sum _{j=1}^{v}EI_{j}\cdot w_{ij}^{'}

3.优化计算效率

    到目前为止,我们都在讨论bigram,CBOW和skip-gram模型的原始形式,现在我们将介绍一些高级的tricks来优化运行的效率。

    首先总结一下之前介绍的所有模型,词汇表中的每个单词都存在2种向量表示的方法:

输入向量\large v_{w}

输出向量\large v_{w}^{'}

   对于输入向量的学习成本并不高,而对于输出向量的学习代价却是昂贵的。 从参数更新方程(22)和(33)我们可以看出,为了更新每一例输出向量\large v_{w}^{'},我们需要迭代词汇表里面的每一个词,计算他们的输入值\large u_{j};预测值\large y_{j}(skip-gram中是\large y_{c,j})的可能性;预测误差\large e_{j}(skip-gram中是\large EI_{j});最后使用预测误差来更新他们的输出向量\large V_{j}^{'}

   显然对于训练样本的每个单词做这样的计算开销太大,尤其是在语料库很大的时候,这样的计算方式显得有些不切实际。解决这个问题,直观的方式是限制必须要更新的训练样例的输出向量的数目。一种有效的方式就是实现一个分层的soft-max;另一种方法也同样简单,通过采样来解决,这个内容将会放在下一章讨论。

    这2中技巧都只是在优化更新输出向量的计算量,在我们的推到过程中,我们主要关注3个数值:

  1. \large E,新的目标函数;
  2. \large \frac{\partial E}{\partial V_{w}^{'}},输出向量新的更新方程;
  3. \large \frac{\partial E}{\partial h},更新输入向量的反向传播算法 的 预测误差 之和。

3.1 Hierarchical Softm

           分层soft-max是计算soft-max的有效方法,该模型使用二叉树来表示词汇表中的所有单词,假设词汇表有\large V个单词,那么用二叉树来表示这\large V个单词时,这些单词都只能在叶子节点上。而由于二叉树的性质,那些非叶子的节点为\large V-1个。对于每个叶子节点,存在也只存在一条从根节点出发到达此节点的绝对路径。通过这条路径,我们就能预估这个叶子节点表示的单词的可能性。下面是一个二叉树的示例:

         上图是一个分词soft-max模型的二叉树示例, 白色的节点代表的是词汇表中的单词,黑色的节点代表的是非叶子节点。其中加粗显示的部分是从跟节点到单词\large w_{2}节点的路径。该路径长度为\large L(w_{2})=4\large n(w,j)表示从跟节点到单词\large w的路径中的第\large j个节点。

         在分层的soft-max模型中,单词没有了输出向量的表示形式,取而代之的是,\large V-1个非叶子节点中的每个节点都有一个输出向量\large v_{n(w,j)}^{'},这样定义一个单词成为输出单词的可能性的公式就可以表示为:

                                       \dpi{100} \large p(w=w_{0}})=\prod_{j=1}^{L(w)-1}\sigma(\left \[[ n(w,j+1)=ch(n(w,j)) \right ]]\cdot v_{n(w,j)}^{'}^{T} \cdot h)                                      (37)

其中:

\large ch(n(w,j))\large n(w,j)节点的左孩子节点;

\large v_{n(w,j)}^{'}\large n(w,j)节点的向量表示(即输出向量);

\large h是隐藏层的输出值;(在Skip-gram模型中 \large h=v_{w_{I}},在CBOW模型中\large h=\frac{1}{C}\sum_{c=1}^{C} v_{w_{c}})

\large [[a=b]]是一个特殊的函数,定义为:  \large [[a=b]]=\left\{\begin{matrix} 1 & a=b\\ -1& a\neq b \end{matrix}\right.

下面,用一个例子来加深对公式(37)的理解:

      回顾一下二叉树示例的图,假设我们要计算单词\large w_{2}成为输出单词的可能性,我们将求解这个概率的问题定义为求解从根节点随机游走到叶子节点\large w_{2}的概率,在其路径上的每个非叶子节点(包括跟节点),我们都要分析他走向左孩子节点和右孩子节点的概率。

       这里我们定义走向左孩子节点的概率为:

                                                                      \large p(n,left)=\sigma (v_{n}^{'}^{T}\cdot h)                                                                             (39)

      从公式可以发现\large p(n,left)的值取决于非叶子节点的向量表示\large v_n^{'}和隐藏层的输出值(隐藏层的输出值取决与输入单词的向量表示)。

       显然走向右孩子节点的概率我们就可以这样定义:

                                                                     \large p(n,left)=1-\sigma (v_{n}^{'}^{T}\cdot h)=\sigma (-v_{n}^{'}^{T}\cdot h)

       根据二叉树示例图中从跟节点到\large w_{2}的路径,我们能计算出单词\large w_{2}成为输出单词的可能性:

                                                        \large p(w=w_{0}})=p(n(w_2,1),left)\cdot p(n(w_2,2),left)\cdot p(n(w_2,3),right)

                                                                              \large =\sigma (v_{n(w_{2},1)}^{'}^{T}\cdot h)\cdot \sigma (v_{n(w_{2},2)}^{'}^{T}\cdot h)\cdot \sigma (-v_{n(w_{2},3)}^{'}^{T}\cdot h)  

     再回头看看公式(37),用上面的例子来理解,是不难的。而且可以发现:

                                                            \large \sum _{i=1}^{V}p(w_{i}=w_{O})=1

     现在我们开始推导非叶子节点的向量表示形式的参数更新公式,为了方便理解,我们还是先以one-word context(即只考虑上下文一个单词的情况)示例,之后我们拓展到CBOW或者skip-gram都会很方便。

     为了简化公式,方便理解,令:

                                                     \large [[\cdot ]]=[[ n(w,j+1)=ch(n(w,j)) ]]

                                                     \large v_{j}^{'}=v_{n(w,j)}^{'}

 则对于训练样本来说,其损失函数可以定义为:

                                                      \large E=-log(p(w=w_{O}|w_{I}))=-\sum _{j=1}^{L(w)-1}log(\sigma ([[\cdot ]]v_{j}^{'}^{T}h))

然后我们对\large E去关于\large v_{j}^{'}h的偏导数,得:

                                                     \large \frac{\partial E}{\partial v_{j}^{'}h}=(\sigma ([[\cdot ]] v_{j}^{'}h)-1)[[\cdot ]]

                                                               \large =\left\{\begin{matrix} \sigma ( v_{j}^{'}h)-1& ([[\cdot ]]=1)\\ \sigma ( v_{j}^{'}h) & ([[\cdot ]]=-1) \end{matrix}\right.

                                                              \large =\sigma ( v_{j}^{'}h)-t_{j}

\large [[\cdot ]]=1\large t_{j}=1,其余\large t_{j}=0.

接着我们计算内部节点\large n(w,j)的向量表示\large V_{j}^{'}关于函数\large E的偏导,得:

                                                      \large \frac{\partial E}{\partial V_{j}^{'}}=\frac{\partial E}{\partial V_{j}^{'}h}\cdot \frac{\partial V_{j}^{'}h}{\partial V_{j}^{'}}=(\sigma ( v_{j}^{'}h)-t_{j})\cdot h

因此得到更新函数的公式为:

                                                    \large V_{j}^{'}:=V_{j}^{'}-\eta\cdot \sigma ( v_{j}^{'}h)-t_{j})\cdot h

可以将\large \sigma ( v_{j}^{'}h)-t_{j})理解为节点\large n(w,j)的预测误差;并且这个公式需要循环迭代\large j=1,2....,L(w)-1。每一个内部节点的“任务”就是预测其随机游走路径是指向左孩子节点还是指向右孩子节点。

\large t_{j} =1等于时意味着\large n(w,j)节点的路径指向左孩子节点;

\large t_{j} =0等于时意味着\large n(w,j)节点的路径指向右孩子节点;

\large \sigma ( v_{j}^{'}h)是预测的结果

    对于一个训练实例 , 如果内部节点的预测值非常接近于真实值,则它的向量表示\large V_{j}^{'}的更新变化很小;否则\large V_{j}^{'}向量指向一个适当的方向使得该实例的预测误差逐渐减小。这种更新方式同样可以应用与CBOW和skip-gram模型,只不过应用在skip-gram我们需要在输出单词上循环迭代C个输出上下文中的每一个单词。

    为了使用反向传播算法来更新输出层→隐藏层的权值矩阵\large W,我们对隐藏层的输出\large h计算其关于损失函数\large E的导数,得:

                                                              \large \\ \frac{\partial E}{\partial h}=\sum_{j=1}^{L(w)=1}\frac{\partial E}{\partial V_{j}^{'}}\cdot \frac{\partial V_{j}^{'}}{\partial h}\\ =\sum_{j=1}^{L(w)=1}(\sigma (v_{j}^'^Th)-t_{j})\cdot V_{J}^{'}\\ :=EH

   接下来我们根据公式(23)便可以获得CBOW模型输入向量的更新公式;对于skip-gram模型,我们需要计算上下文信息中的每个单词的\large EH_{i},并将\large \sum EH_{i}带入公式(35),就能够得到输入向量的更新公式。

       从以上更新公式我们可以看出:经过改进的模型Hierarchical soft-max的每个训练样例的每个上下文单词的计算复杂度从\large O(V)降为\large O(log(V))。但是模型的参数几乎没有什么改变(内部节点对应\large V-1维向量,而原始模型的单词的输出向量维数为\large V

3.2 Negative Sampling

    Negative Sampling(负抽样)的方法比分层soft-max来得更为直截了当:在每次循环迭代过程中需要处理大量的节点上的计算,为了解决这个问题,Negative Sampling提出了只更新其中一部分输出向量的解决方案。

    显然,负抽样的目的是为了最终输出的上下文单词(正样本)[基于训练样本的半监督学习]在采样过程中应该保留下来并更新,同时也需要采集一些反面例子[与训练样本结果不符](也可以称之为“负样本”)

    那么怎么采集这些例子呢?这里我们引入一个概念“噪声分布\large p_{n}(w)”,通过噪声分布函数来采集例子。噪声分布函数并是特指某一函数,而是任意能够起到采样的函数。当然,当你有足够的经验后,你会知道在什么情况下应用什么噪声分布函数会更为合适。

    那么把Negative Sampling(负抽样)应用到Word2vec上时,我们不用再使用那种能够产生很好的后验概率的多项式分布的负采样形式。Word2vec的作者们发现使用下面这种目标函数就能产生高质量且可靠的word embeddings:

                                                                 \large E=-log(\sigma (v_{w_{O}}^'^Th))-\sum _{i=1}^{K}log(\sigma (-v_{w_{i}}^'^Th))

其中:

\large w_{i}是通过噪声分布\large p_{n}(w)函数采集的一系列样本;

\large h是隐藏层的输出值;[在skip-gram中\large h=V_{w_{I}},在CBOW中\large h=\frac{1}{C}\sum_{c=1}^{C}V_{w_{c}}]

向量\large V_{w}代表输入层上单词\large w的向量,它实际上是输入矩阵\large W的其中一行;

向量\large V_{w}^{'}代表输出层上单词\large w的向量,它实际上是输出矩阵\large W^{'}的其中一列;(说了N遍了,emmmm.....)

(每个单词都有2中向量表示形式\large V_{w}\large V_{w}^{'}

我们对目标函数\large E求其关于标量\large w_{j}}^'^Th的偏导,得:

                                                               \large \frac{\partial E}{\partial V_{w_{j}}^'^Th}=\left\{\begin{matrix} \sigma(V_{w_{j}}^'^Th)-1 & w_{j}=w_{O}\\\sigma(V_{w_{j}}^'^Th) & w_{j}\in \begin{Bmatrix} w_{i}|i=1,2...,K \end{Bmatrix}\end{matrix}\right.

                                                                              \large =\sigma(V_{w_{j}}^'^Th) -t_{j}

其中\large t_{j}表示单词\large w_{j}的“类型”,当\large w_{j}是正样本时,及预测值与真实值相同时\large t_{j}=1,反之\large t_{j}=0。然后通过链式法则可以得到目标函数\large E关於单个单词输出向量\large V_{w_{j}}}^{'}的导数,得:

                                                                   \large \frac{\partial E}{\partial V_{w_{j}}^{'}}=\frac{\partial E}{\partial V_{w_{j}}^'^Th}\cdot \frac{\partial V_{w_{j}}^'^Th}{\partial V_{w_{j}}^{'}}= (\sigma(V_{w_{j}}^'^Th) -t_{j})h

   所以我们的更新函数就可以表示为:                                                    

                                                                   \large V_{w_{j}}}^{'}:=V_{w_{j}}}^{'}-\eta (\sigma(V_{w_{j}}^'^Th) -t_{j})h

                                                                   \large s.t.: w_{j}\in \begin{Bmatrix} w_{O} \end{Bmatrix}\bigcup \begin{Bmatrix} w_{i}\sim p_{n}(w)|i=1,2...,K \end{Bmatrix}                                (59)

    negative sampling的关键就是公式(59)的更新过程只应用于词汇表的子集\large w_{j}\in \begin{Bmatrix} w_{O} \end{Bmatrix}\bigcup \begin{Bmatrix} w_{i}\sim p_{n}(w)|i=1,2...,K \end{Bmatrix},而并非应用于整个词汇表,从而大大的减轻的计算量。除词汇量的大小变了之外,其余更新的方式是与式子(11)一样的。公式(59)适用于CBOW和skip-gram模型,在skip-gram模型中,我们每次更新一个单词。

        接着利用反向传播算法来计算目标函数\large E关于隐藏层输出值\large h的偏导,得:

                                                                      \large \frac{\partial E}{\partial h}=\frac{\partial E}{\partial V_{w_{j}}^'^Th}\cdot \frac{\partial V_{w_{j}}^'^Th}{\partial h}= (\sigma(V_{w_{j}}^'^Th) -t_{j})v_{w_{j}}^{'}:=EH

   在CBOW模型中,我们将上面公式代入(23)即可完成对模型输入向量矩阵的更新;

   在skip-gram模型输入向量矩阵的更新中,我们需要计算每个上下文单词\large EH值的和然后再将其代入公式(35)。

4 Discussio

4.1为什么使用soft-max?

     使用soft-max可以更好的帮助我们去定义单词之间的概率分布,改模型使用交叉熵作为损失函数,从理论上说,你也可以使用平方和作为损失函数,但是这样的话针对soft-max开发的优化效率提升性能技巧将不再适用。

4.2输入向量和输出向量之间的关系是什么?

    输入向量是输入层→隐藏层的权值矩阵其中一行;输出向量是隐藏层→输出层的权值矩阵其中一列;
    从定义上他们就是一个单词的2种向量表示形式。

4.3Word2vec的目的是得到词向量,是2组词向量还是一组词向量?

   之前提到Word2vec训练对每个单词有2组词向量,但是最终其实保留输入层到隐藏层的这组词向量,输出层对应的 分层-softmax 也会生成一系列的向量,但最终都被抛弃,不会使用。

References

  1. Goldberg, Y. and Levy, O. (2014). word2vec explained: deriving mikolov et al.’s negativesampling word-embedding method. arXiv:1402.3722 [cs, stat]. arXiv: 1402.3722.
  2. Mikolov, T., Chen, K., Corrado, G., and Dean, J. (2013a). Efficient estimation of word representations in vector space. arXiv preprint arXiv:1301.3781.
  3. Mikolov, T., Sutskever, I., Chen, K., Corrado, G. S., and Dean, J. (2013b). Distributed representations of words and phrases and their compositionality. In Advances in Neural Information Processing Systems, pages 3111–3119.
  4. Mnih, A. and Hinton, G. E. (2009). A scalable hierarchical distributed language model.In Koller, D., Schuurmans, D., Bengio, Y., and Bottou, L., editors, Advances in Neural Information Processing Systems 21, pages 1081–1088. Curran Associates, Inc.
  5. Morin, F. and Bengio, Y. (2005). Hierarchical probabilistic neural network language model.In AISTATS, volume 5, pages 246–252. Citeseer.

关于word2vec的参数解释到此结束了,对文章有疑问或者其他方面问题的可以通过下面方式联系作者:

QQ:470581985

微信:lsq960124

打赏一下作者:

 

 

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章