RNN(循环神经网络)

参考:

  1. 史上最详细循环神经网络讲解(RNN/LSTM/GRU
  2. RNN
  3. 李宏毅,Structured Learning: Recurrent Neural Network, http://speech.ee.ntu.edu.tw/~tlkagk/courses_ML16.html 
    1. (机器学习2019B站视频)(2016B站RNN)
  4.  

 

一、RNN(循环神经网络)

参考链接

一文搞懂RNN(循环神经网络)基础篇

1、神经网络基础

神经网络可以当做是能够拟合任意函数的黑盒子,只要训练数据足够,给定特定的x,就能得到希望的y,结构图如下:

将神经网络模型训练好之后,在输入层给定一个x,通过网络之后就能够在输出层得到特定的y,那么既然有了这么强大的模型,为什么还需要RNN(循环神经网络)呢?

2、为什么需要RNN(循环神经网络)

他们都只能单独的取处理一个个的输入,前一个输入和后一个输入是完全没有关系的。但是,某些任务需要能够更好的处理序列的信息,即前面的输入和后面的输入是有关系的。

比如,当我们在理解一句话意思时,孤立的理解这句话的每个词是不够的,我们需要处理这些词连接起来的整个序列; 当我们处理视频的时候,我们也不能只单独的去分析每一帧,而要分析这些帧连接起来的整个序列。

以nlp的一个最简单词性标注任务来说,将我 吃 苹果 三个单词标注词性为 我/nn 吃/v 苹果/nn。

那么这个任务的输入就是:

我 吃 苹果 (已经分词好的句子)

这个任务的输出是:

我/nn 吃/v 苹果/nn(词性标注好的句子)

对于这个任务来说,我们当然可以直接用普通的神经网络来做,给网络的训练数据格式了就是我-> 我/nn 这样的多个单独的单词->词性标注好的单词。

但是很明显,一个句子中,前一个单词其实对于当前单词的词性预测是有很大影响的,比如预测苹果的时候,由于前面的吃是一个动词,那么很显然苹果作为名词的概率就会远大于动词的概率,因为动词后面接名词很常见,而动词后面接动词很少见。

所以为了解决一些这样类似的问题,能够更好的处理序列的信息,RNN就诞生了。

3、RNN结构

首先看一个简单的循环神经网络如,它由输入层、一个隐藏层和一个输出层组成:

不知道初学的同学能够理解这个图吗,反正我刚开始学习的时候是懵逼的,每个结点到底代表的是一个值的输入,还是说一层的向量结点集合,如何隐藏层又可以连接到自己,等等这些疑惑~这个图是一个比较抽象的图。

我们现在这样来理解,如果把上面有W的那个带箭头的圈去掉,它就变成了最普通的全连接神经网络。x是一个向量,它表示输入层的值(这里面没有画出来表示神经元节点的圆圈);s是一个向量,它表示隐藏层的值(这里隐藏层面画了一个节点,你也可以想象这一层其实是多个节点,节点数与向量s的维度相同);

U是输入层到隐藏层的权重矩阵,o也是一个向量,它表示输出层的值;V是隐藏层到输出层的权重矩阵

那么,现在我们来看看W是什么。循环神经网络隐藏层的值s不仅仅取决于当前这次的输入x,还取决于上一次隐藏层的值s。权重矩阵 W就是隐藏层上一次的值作为这一次的输入的权重。

我们给出这个抽象图对应的具体图:

我们从上图就能够很清楚的看到,上一时刻的隐藏层是如何影响当前时刻的隐藏层的。

如果我们把上面的图展开,循环神经网络也可以画成下面这个样子:

RNN时间线展开图

现在看上去就比较清楚了,这个网络在t时刻接收到输入x_t 之后,隐藏层的值是s_t,输出值是o_t。关键一点是, s_t的值不仅仅取决于x_t,还取决于x_{t-1} 。我们可以用下面的公式来表示循环神经网络的计算方法:

用公式表示如下:

RNN公式

4、总结

好了,到这里大概讲解了RNN最基本的几个知识点,能够帮助大家直观的感受RNN和了解为什么需要RNN,后续总结它的反向求导知识点。

最后给出RNN的总括图:

注意:为了简单说明问题,偏置都没有包含在公式里面。

致谢:夏冲和实验室的小伙伴们 参考:零基础入门深度学习(5) - 循环神经网络(多谢这么好的资料)

 

二、LSTM

参考https://zhuanlan.zhihu.com/p/30844905

1. 普通RNN

先简单介绍一下一般的RNN。

其主要形式如下图所示(图片均来自台大李宏毅教授的PPT):

这里:

 x为当前状态下数据的输入, h表示接收到的上一个节点的输入。

y为当前节点状态下的输出,而h'为传递到下一个节点的输出。

 

通过上图的公式可以看到,输出 h' 与 x 和 h 的值都相关。

而 y 则常常使用 h' 投入到一个线性层(主要是进行维度映射)然后使用softmax进行分类得到需要的数据。

对这里的y如何通过 h' 计算得到往往看具体模型的使用方式。

 

通过序列形式的输入,我们能够得到如下形式的RNN。


2. LSTM

2.1 什么是LSTM

长短期记忆(Long short-term memory, LSTM)是一种特殊的RNN,主要是为了解决长序列训练过程中的梯度消失和梯度爆炸问题。简单来说,就是相比普通的RNN,LSTM能够在更长的序列中有更好的表现。

 

LSTM结构(图右)和普通RNN的主要输入输出区别如下所示。

相比RNN只有一个传递状态 h^{t} ,LSTM有两个传输状态,一个c^{t}(cell state),和一个h^{t} (hidden state)。(Tips:RNN中的 h^{t}  对于LSTM中的  c^{t}

其中对于传递下去的c^{t}  改变得很慢,通常输出的 c^{t} 是上一个状态传过来的 c^{t-1} 加上一些数值。

而 h^{t} 则在不同节点下往往会有很大的区别。

 

2.2 深入LSTM结构

下面具体对LSTM的内部结构来进行剖析。

首先使用LSTM的当前输入x^{t} 和上一个状态传递下来的h^{t-1} 拼接训练得到四个状态。

 

 

其中,z^{f}z^{i}z^{o} 是由拼接向量乘以权重矩阵之后,再通过一个sigmoid激活函数转换成0到1之间的数值,来作为一种门控状态。而 z则是将结果通过一个tanh激活函数将转换成-1到1之间的值(这里使用 tanh 是因为这里是将其做为输入数据,而不是门控信号)。

下面开始进一步介绍这四个状态在LSTM内部的使用。(敲黑板)

⊙是Hadamard Product,也就是操作矩阵中对应的元素相乘,因此要求两个相乘矩阵是同型的。  ⊕则代表进行矩阵加法。

 

LSTM内部主要有三个阶段:

1. 忘记阶段。这个阶段主要是对上一个节点传进来的输入进行选择性忘记。简单来说就是会 “忘记不重要的,记住重要的”。

具体来说是通过计算得到的z^{f}(f表示forget)来作为忘记门控,来控制上一个状态的  c^{t-1}哪些需要留哪些需要忘。

2. 选择记忆阶段。这个阶段将这个阶段的输入有选择性地进行“记忆”。主要是会对输入 ​​​​​​​x^{t} 进行选择记忆。哪些重要则着重记录下来,哪些不重要,则少记一些。当前的输入内容由前面计算得到的z表示。而选择的门控信号则是由 z^{i}(i代表information)来进行控制。

将上面两步得到的结果相加,即可得到传输给下一个状态的 c^{t}。也就是上图中的第一个公式。

3. 输出阶段。这个阶段将决定哪些将会被当成当前状态的输出。主要是通过 z^{o}来进行控制的。并且还对上一阶段得到的 c^{0} 进行了放缩(通过一个tanh激活函数进行变化)。

与普通RNN类似,输出y^{t}往往最终也是通过 h^{t}变化得到。


3. 总结

以上,就是LSTM的内部结构。通过门控状态来控制传输状态,记住需要长时间记忆的,忘记不重要的信息;而不像普通的RNN那样只能够“呆萌”地仅有一种记忆叠加方式。对很多需要“长期记忆”的任务来说,尤其好用。

但也因为引入了很多内容,导致参数变多,也使得训练难度加大了很多。因此很多时候我们往往会使用效果和LSTM相当但参数更少的GRU来构建大训练量的模型。

三、GRU

参考:陈诚:人人都能看懂的GRU​zhuanlan.zhihu.com

1. 什么是GRU

GRU(Gate Recurrent Unit)是循环神经网络(Recurrent Neural Network, RNN)的一种。和LSTM(Long-Short Term Memory)一样,也是为了解决长期记忆和反向传播中的梯度等问题而提出来的。

GRU和LSTM在很多情况下实际表现上相差无几,那么为什么我们要使用新人GRU(2014年提出)而不是相对经受了更多考验的LSTM(1997提出)呢。

下图1-1引用论文中的一段话来说明GRU的优势所在。

图1-1 R-NET: MACHINE READING COMPREHENSION WITH SELF-MATCHING NETWORKS(2017)

简单译文:我们在我们的实验中选择GRU是因为它的实验效果与LSTM相似,但是更易于计算。

简单来说就是贫穷限制了我们的计算能力...

相比LSTM,使用GRU能够达到相当的效果,并且相比之下更容易进行训练,能够很大程度上提高训练效率,因此很多时候会更倾向于使用GRU。

OK,那么为什么说GRU更容易进行训练呢,下面开始介绍一下GRU的内部结构。


2. GRU浅析

 

2.1 GRU的输入输出结构

GRU的输入输出结构与普通的RNN是一样的。

有一个当前的输入 x^{t},和上一个节点传递下来的隐状态(hidden state) h^{t-1},这个隐状态包含了之前节点的相关信息。

结合 x^{t}h^{t-1},GRU会得到当前隐藏节点的输出 y^{t} 和传递给下一个节点的隐状态 h^{t}

图2-1 GRU的输入输出结构

那么,GRU到底有什么特别之处呢?下面来对它的内部结构进行分析!


2.2 GRU的内部结构

首先,我们先通过上一个传输下来的状态 h^{t-1} 和当前节点的输入x^{t}来获取两个门控状态。如下图2-2所示,其中 r控制重置的门控(reset gate), z为控制更新的门控(update gate)。

Tips: \sigma 为sigmoid函数,通过这个函数可以将数据变换为0-1范围内的数值,从而来充当门控信号。

 

图2-2 r,z门控

与LSTM分明的层次结构不同,下面将对GRU进行一气呵成的介绍~~~ 请大家屏住呼吸,不要眨眼。

得到门控信号之后,首先使用重置门控来得到“重置”之后的数据​​​​​​​h^{t-1'}=h^{t-1}\bigodot r  ,再将 h^{t-1'} 与输入 x^{t}进行拼接,再通过一个tanh激活函数来将数据放缩到-1~1的范围内。即得到如下图2-3所示的h^{'}

图2-3 包含当前输入数据的h'

这里的 h^{'} 主要是包含了当前输入的 x^{t} 数据。有针对性地对 h^{'} 添加到当前的隐藏状态,相当于”记忆了当前时刻的状态“。类似于LSTM的选择记忆阶段(参照我的上一篇文章)。

图2-3 GRU的内部结构

图2-3中的 \bigodot是Hadamard Product,也就是操作矩阵中对应的元素相乘,因此要求两个相乘矩阵是同型的。\bigoplus则代表进行矩阵加法操作。

最后介绍GRU最关键的一个步骤,我们可以称之为”更新记忆“阶段。

在这个阶段,我们同时进行了遗忘了记忆两个步骤。我们使用了先前得到的更新门控 z (update gate)。

更新表达式: h^{t}=z \bigodot h^{t-1}+(1-z)\bigodot h^{'}

首先再次强调一下,门控信号(这里的 z )的范围为0~1。门控信号越接近1,代表”记忆“下来的数据越多;而越接近0则代表”遗忘“的越多。

 

GRU很聪明的一点就在于,我们使用了同一个门控 z就同时可以进行遗忘和选择记忆(LSTM则要使用多个门控)

  • z \bigodot h^{t-1}:表示对原本隐藏状态的选择性“遗忘”。这里的 z 可以想象成遗忘门(forget gate),忘记h^{t-1}  维度中一些不重要的信息
  • (1-z)\bigodot h^{'} : 表示对包含当前节点信息的 h^{'} 进行选择性”记忆“。与上面类似,这里的 (1-z) 同理会忘记 h^{'} 维度中的一些不重要的信息。或者,这里我们更应当看做是对 h^{'} 维度中的某些信息进行选择。
  • h^{t}=z \bigodot h^{t-1}+(1-z)\bigodot h^{'} :结合上述,这一步的操作就是忘记传递下来的 h^{t-1} 中的某些维度信息,并加入当前节点输入的某些维度信息。
可以看到,这里的遗忘 z 和选择 (1-z) 是联动的。也就是说,对于传递进来的维度信息,我们会进行选择性遗忘,则遗忘了多少权重 (z ),我们就会使用包含当前输入的h^{'}  中所对应的权重进行弥补 (1-z) 。以保持一种”恒定“状态。

3. LSTM与GRU的关系

GRU是在2014年提出来的,而LSTM是1997年。他们的提出都是为了解决相似的问题,那么GRU难免会参考LSTM的内部结构。那么他们之间的关系大概是怎么样的呢?这里简单介绍一下。

大家看到 r (reset gate)实际上与他的名字有点不符。我们仅仅使用它来获得了 h^{'} 。

那么这里的 h^{'} 实际上可以看成对应于LSTM中的hidden state;上一个节点传下来的 h^{t-1} 则对应于LSTM中的cell state。z对应的则是LSTM中的 z^{f} forget gate,那么 (1-z) 我们似乎就可以看成是选择门 z^{i} 了。大家可以结合我的两篇文章来进行观察,这是非常有趣的。

 

4. 总结

GRU输入输出的结构与普通的RNN相似,其中的内部思想与LSTM相似。

与LSTM相比,GRU内部少了一个”门控“,参数比LSTM少,但是却也能够达到与LSTM相当的功能。考虑到硬件的计算能力时间成本,因而很多时候我们也就会选择更加”实用“的GRU啦。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章