《神经网络与深度学习》-卷积神经网络

利用全连接前馈网络处理图像时的问题:
(1)参数太多:
  对于输入的1001003的RGB图像,全连接前馈网络,第一个隐藏层的每个神经元到输入层有1001003=30000个独立的连接,即权重参数,隐藏层神经元个数增加,参数规模急剧增加,网络训练效率低,易过拟合。
(2)局部不变性特征:
  全连接网络很难提取自然图像中的局部不变性特征:尺度缩放、平移、旋转;这些操作不影响自然图像的语义信息。

卷积神经网络
  CNN三个结构特性:局部连接权重共享汇聚
  这三特性使CNN具有一定的平移、缩放、旋转不变性。参数更少。

感受野
  卷积神经网络(CNN)收生物学感受野机制得来。感受野指视觉、听觉系统中的一些神经元只接受其支配的刺激区域内的信号。一个神经元的感受野指视网膜上特定的区域,只有这个区域的刺激才能激活该神经元。

1. 卷积

一维卷积
  假设一个信号发生器每个时刻 tt 产生一个信号 xtx_t,其信息的衰减率为wkw_k,即在𝑘 − 1 个时间步长后,信息为原来的wkw_k 倍.我们把w1,w2,w3,w_1, w_2, w_3, ⋯称为滤波器(Filter)或卷积(Convolution Kernel). 假设滤波器长度为𝐾,它和一个信号序列x1,x2,x_1, x_2, ⋯的卷积为:
yt=k=1Kwkxtk+1y_t = \sum_{k=1}^{K}{w_kx_{t-k+1}}
  信号序列x和滤波器w的卷积定义为:
y=wx \pmb{y} = \pmb{w}* \pmb{x}
其中*表示卷积运算。
  特殊的,当wk=1/k,1kKw_k = 1/ k, 1 \leq k \leq K时,卷积相当于信号序列的简单移动平均。

二维卷积
  给定一个图像XRM×N\pmb{X} \in \mathbb{R}^{M \times N}和滤波器WRU×V\pmb{W} \in \mathbb{R}^{U\times V},其卷积为:
yij=u=1Uv=1Vwuvxtu+1,jv+1y_{ij} = \sum_{u=1}^{U} \sum_{v=1}^{V}w_{uv}x_{t-u+1, j-v+1}
  一个输入信息X和滤波器W的二维卷积定义为:
Y=WX Y = \pmb{W} * \pmb{X}
其中*表示卷积运算。二维卷积实例如图:
二维卷积实例
  均值滤波为将当前位置的像素设置为滤波器窗口中所有像素的平均值,即wuv=1UVw_{uv} = \frac{1}{UV}.
  卷积常作为特征提取的有效方法,图像经过卷积操作得到的结果叫做特征映射(Feature Map)。以下分别是:高斯滤波器、平滑去噪滤波器、边缘特征提取滤波器。
在这里插入图片描述

1.1 互相关

  在图像处理过程中,计算卷积,需要进行卷积核翻转。在具体实现上,一般使用互相关操作来代替卷积,从而减少开销。互相关是衡量两个序列相关性的函数,使用滑动窗口的点积计算实现,给定一个图像XRM×N\pmb{X} \in \mathbb{R}^{M \times N}和卷积核WRU×V\pmb{W} \in \mathbb{R}^{U\times V},它们的互相关为:

yij=u=1Uv=1Vwuvxt+u1,j+v1y_{ij} = \sum_{u=1}^{U} \sum_{v=1}^{V}w_{uv}x_{t+u-1, j+v-1}

卷积公式对比:

yij=u=1Uv=1Vwuvxtu+1,jv+1y_{ij} = \sum_{u=1}^{U} \sum_{v=1}^{V}w_{uv}x_{t-u+1, j-v+1}

互相关卷积的区别仅仅在于卷积核是否进行翻转。因此互相关也可以称为不翻转卷积
  一个输入信息X和滤波器W的互相关可以定义为:
Y=WX=rot180(W)X \begin{aligned} Y & = \pmb{W} \bigotimes \pmb{X} \\ & = rot180(\pmb{W})*\pmb{X} \end{aligned}

其中\bigotimes表示互相关运算,rot180()rot180(\cdot)表示旋转180度,YRMU+1,NV+1\pmb{Y} \in \mathbb{R}^{M-U+1, N-V+1}为输出矩阵。

  在神经网络中,用卷积进行特征提取,卷积核翻转不影响其特征提取能力,当卷积核为可学习参数时,卷积核互相关在能力上等价,故常用互相关来代替卷积(绝大部分深度学习工具亦如此)。

   在后续的文章中,用互相关代替卷积,即本文中的卷积符号用\bigotimes表示,而真正的卷积用*表示。

1.2 卷积的变种

  引入滑动步长零填充增加卷积多样性。滑动步长 (Stride)是指滤波器在滑动时的时间间隔。零填充(Zero Padding)是在输入向量的边界外进行补零。示意图如下:
在这里插入图片描述

1.2.1 转置卷积

  常见的卷积是进行降维操作,但一些卷积也可以将低维特征映射到高维特征。
  对于高维向量 xRd\pmb{x} \in \mathbb{R}^{d}和低维向量 zRp\pmb{z} \in \mathbb{R}^{p}p<dp < d。方式变换 WRp×d\pmb{W} \in \mathbb{R}^{p \times d}将高维映射到低维:

z=Wx \pmb{z} = \pmb{Wx}

通过转置W\pmb{W}实现低维到高维反向映射:

x=WTz \pmb{x} = \pmb{W^{T}z}

  卷积操作可以写成仿射变换方式。假设一个5 维向量x\pmb{x},经过大小为3 的卷积核 w=[w1,w2,w3]T\pmb{w} = [w_1, w_2, w_3]^{T} 进行卷积,得到3 维向量z\pmb{z}。卷积操作可以写为:
在这里插入图片描述
其中C\pmb{C}是一个稀疏矩阵,其非零元素来自于卷积核w\pmb{w}中的元素。
  要实现3 维向量z\pmb{z}到5 维向量x\pmb{x}的映射,可以通过仿射矩阵的转置来实现:
在这里插入图片描述
  将低维特征映射到高维特征的卷积操作称为转置卷积(Transposed Convolution)也称为反卷积(Deconvolution)。步长𝑆 = 1,无零填充𝑃 = 0 的二维卷积和其对应的转置卷积:
在这里插入图片描述
微步卷积 通过减少转置卷积的步长𝑆 < 1来实现上采样操作,大幅提高特征维数。步长𝑆 < 1 的转置卷积也称为微步卷积。为了实现微步卷积,可以在输入特征之间插入0 来间接地使得步长变小。如果卷积操作的步长为𝑆 > 1,希望其对应的转置卷积的步长为 1S\frac{1}{S} 。需要在输入特征之间插入𝑆 − 1 个0 来使得其移动的速度变慢。步长𝑆 = 2,无零填充𝑃 = 0 的二维卷积和其对应的转置卷积如图:
在这里插入图片描述

1.2.2 空洞卷积

  对于卷积层想增加输出单元的感受野可以:
(1)增加卷积核大小(但会增加参数量)
(2)增加卷积的层数(但会增加参数量)
(3)卷积之前进行汇聚操作(但会丢失信息)
(4)空洞卷积(不增加参数量)
  空洞卷积又称膨胀卷积,通过给卷积核插入空洞来增加大小,如果在卷积核每两元素之间插入 D1D-1 个空洞,卷积核的有效大小为:
在这里插入图片描述
D为膨胀率,当D=1时,卷积核为普通的卷积核。
在这里插入图片描述
转置卷积空洞卷积动态实例:转置卷积空洞卷积动态图

1.3 卷积的数学性质

1.3.1 交换性

  如不限制卷积信号长度,翻转卷积具有交换性,即xy=yx\pmb{x} * \pmb{y} = \pmb{y} * \pmb{x}。互相关“卷积”,同样具有交换性。

宽卷积 给定图像XRM×N\pmb{X} \in \mathbb{R}^{M \times N}和卷积核WRU×V\pmb{W} \in \mathbb{R}^{U\times V},对图像进行零填充,两端各补 U1U-1V1V-1个零,得到全填充(Full Padding)图像X^R(M+2U2)×(N+2V2)\pmb{\hat{X}} \in \mathbb{R}^{(M+2U-2) \times (N+2V-2)}。宽卷积的定义:

W^XW^X^ \pmb{W} \hat{\bigotimes} \pmb{X} \triangleq \pmb{W} \hat{\bigotimes} \pmb{\hat{X}}

其中^\hat{\bigotimes}表示宽卷积运算。

  当输入信息和卷积核具有固定长度时,其宽卷积仍具有交换性:

rot180(W)^X=rot180(X)^W rot180(\pmb{W}) \hat{\bigotimes} \pmb{X} = rot180(\pmb{X}) \hat{\bigotimes} \pmb{W}。

1.3.2 导数

  假设Y=WXY = \pmb{W} \bigotimes \pmb{X},其中XRM×N\pmb{X} \in \mathbb{R}^{M \times N}WRU×V\pmb{W} \in \mathbb{R}^{U \times V}YR(MU+1)×(NV+1)\pmb{Y} \in \mathbb{R}^{(M-U+1) \times (N-V+1)},函数f(Y)Rf(Y) \in \mathbb{R} 是一个标量函数,则:
在这里插入图片描述
从最后一个公式可看出:

f(Y)W=f(Y)YX \frac{\partial{f(Y)}}{\partial{\pmb{W}}} = \frac{\partial{f(Y)}}{\partial{\pmb{Y}}} \bigotimes \pmb{X}

同理:
在这里插入图片描述
其中当(si+1)<1(s - i + 1) < 1,或(si+1)>U(s - i + 1) > U,或(tj+1)<1(t - j + 1) < 1,或(tj+1)>V(t - j + 1) > V时,wsi+1,ij+1=0w_{s-i+1, i-j+1} = 0。即相当于对 W 进行了P=(MU,NV)P = (M - U, N - V)的零填充。
  使用互相关的“卷积”:
在这里插入图片描述

2. 卷积神经网络

  CNN一般由卷积层、汇聚层、全连接层构成。

2.1 用卷积代替全连接

两个原因:
局部连接 在卷积层中(第 ll 层)每一个神经元只和下一层(第 l1l-1 层)中某个局部窗口内的神经元连接,构成局部连接网络,卷积层和下一层连接数大大减少,由 Ml×Ml1M_l \times M_{l-1} 个连接变为Ml×KM_l \times K 个连接,K为滤波器大小。
在这里插入图片描述
权重共享 一个滤波器只捕捉输入数据的一种特定的局部特征。因此提取多个特征就要多个不同的滤波器。滤波器 w(l)\pmb{w}^{(l)} 对于第 ll 层的所有的神经元都是相同的,如上图(b),同颜色上的连接权重相同。

  由于局部连接权重共享的存在,卷积层的参数个数与神经元的数量无关,卷积层的参数只有K维权重 w(l)\pmb{w}^{(l)}ll 维的偏置 b(l)b^{(l)},共 K+1 个参数。

2.2 卷积层

  不同的卷积核相当于不同的特征提取器。
  为充分利用图像的局部信息,经常将神经元组织为三维结构的神经层,大小为 M * N * D ,由 D 个 M * N 大小的特征映射构成。为提高卷积网络的表示能力,可以在每一层使用多个不同的特征映射
  在输入层:特征映射是图像本身。
  灰度图像:有一个特征映射,输入层深度D=1。
  彩色图像:有RGB三个颜色通道的特征映射,输入层深度D=3。
卷积层的结构:
(1)输入特征映射组:XRM×N×D\pmb{X} \in \mathbb{R}^{M \times N \times D} 为三维张量(tensor),每个切片(Slice)矩阵XdRM×N\pmb{X}^{d} \in \mathbb{R}^{M \times N} 为一个输入特征映射,1dD1 \leq d \leq D
(2)输出特征映射组:YRM×N×P\pmb{Y} \in \mathbb{R}^{M^{'} \times N^{'} \times P} 为三维张量,每个切片矩阵YpRM×N\pmb{Y}^{p} \in \mathbb{R}^{M^{'} \times N^{'}} 为一个输出特征映射,1pP1 \leq p \leq P
(3)卷积核:WRU×V×D×P\pmb{W} \in \mathbb{R}^{U \times V \times D \times P} 为四维张量,每个切片矩阵Wp,dRU×V\pmb{W}^{p,d} \in \mathbb{R}^{U \times V} 为一个二维卷积核,1dD1pP1 \leq d \leq D, 1 \leq p \leq P
卷积层的三维结构如图:
在这里插入图片描述
  输出特征映射 YpY^p 的计算:
在这里插入图片描述
其中WpRU×V×D\pmb{W}^p \in \mathbb{R}^{U \times V \times D} 为三维卷积核,f()f(\cdot) 常为ReLU的非线性激活函数。如希望卷积层输出P个特征映射,可将该计算过程重复P次:
在这里插入图片描述
  在输入为XRM×N×D\pmb{X} \in \mathbb{R}^{M \times N \times D} ,输出为YRM×N×P\pmb{Y} \in \mathbb{R}^{M^{'} \times N^{'} \times P} 的卷积层中,每一个输出特征映射需要D个滤波器以及一个偏置b。假设每个滤波器的大小为 U×VU \times V, 那么共需P×D×(U×V)+PP \times D \times (U \times V) + P个参数。

2.3 汇聚层(池化层)

  汇聚层(Pooling Layer) 也叫子采样层(Subsampling Layer),作用是特征选择,降维。因为卷积层只减少了网络中连接的数量,却没有减少特征映射组中的神经元个数。
  汇聚层的输入特征映射组为 XRM×N×D\pmb{X} \in \mathbb{R}^{M \times N \times D} ,对于其中的每一个映射组 XdRM×N\pmb{X}^d \in \mathbb{R}^{M \times N}, 1dD1 \leq d \leq D,将其分为多个可重叠的区域 Rm,ndR_{m,n}^d1mM1 \leq m \leq M^{'}1nN1 \leq n \leq N^{'}。汇聚层对每个区域进行下采样(Down Sampling)得到一个值,作为这个区域的概括。常见的两个汇聚函数:
(1)最大汇聚(Max Pooling):

ym,nd=maxiRm,ndxi y_{m,n}^{d} = \max_{i \in R_{m,n}^{d}} x_i

其中xix_i 为 区域 RkdR_k^d 内每个神经元的活性值。
(2)平均汇聚(Mean Pooling):

ym,nd=1Rm,ndiRm,ndxi y_{m,n}^{d} = \frac{1}{|R_{m,n}^d|} \sum_{i \in R_{m,n}^{d}} x_i

  对于每个
  汇聚层既可以减少神经元数量,又可以是网络对一些相对小的局部形态改变保持不变性,并拥有更大的感受野。

  目前主流的卷积网络中,汇聚层仅含下采样操作,早期卷积网络(LeNet-5) 中,会在汇聚层后接激活函数。

  典型的汇聚层为对 222 * 2 的不重叠区域记性最大汇聚。汇聚层可以看做特殊的卷积层,卷积核大小为 KKK * K ,步长为 SSS * S,卷积核为max函数 或 mean函数。过大的采样区域会急剧减少神经元的数量,也会造成过多的信息损失。

2.4 典型的卷积网络结构

  典型的卷积网络结构如图:
在这里插入图片描述
一个卷积块为连续M个卷积层和b个汇聚层(M常为2-5,b常为0或1)。一个卷积网络中可以堆叠𝑁 个连续的卷积块,然后在后面接 K 个全连接层(N常为1-100,b常为0-2)。

  目前,网络结构趋向于更小的卷积核(11或33)、更深的结构(大于50层)。此外,由于卷积的操作性越来越灵活(不同的步长),汇聚层作用渐小,故目前流行的卷积网络中汇聚层在减少,趋向于全卷积网络。

3 参数学习

  利用误差反向传播算法进行参数学习。
  设第 ll 层为卷积层,第 l1l-1 层的输入特征映射为X(l1)RM×N×DX^{(l-1)} \in \mathbb{R}^{M \times N \times D},通过卷积计算得到第ll层的特征映射净输入 Z(l)RM×N×PZ^{(l)} \in \mathbb{R}^{M^{'} \times N^{'} \times P}。第ll层的第pp个特征映射净输入:

Z(l,p)=d=1DW(l,p,d)X(l1,d)+b(l,p) Z^{(l,p)} = \sum_{d=1}^{D} \pmb{W}^{(l,p,d)} \bigotimes \pmb{X}^{(l-1,d)} + b^{(l,p)}

其中 W(l,p,d)\pmb{W}^{(l,p,d)}b(l,p)b^{(l,p)} 为卷积核以及偏置。第ll层中共有P×DP \times D个卷积核和PP个偏置,可用链式法则求导。
  损失函数 LL 关于第 ll 层的卷积核 W(l,p,d)\pmb{W}^{(l,p,d)} 的偏导:
在这里插入图片描述
其中
δ(l,p)=LZ(l,p)\delta^{(l,p)} = \frac{\partial L}{\partial Z^{(l,p)}} 为损失函数关于第 ll 层的第pp个特征映射净输入Z(l,p)Z^{(l,p)}的偏导数;
Lb(l,p)=i,j[δ(l,p)]i,j\frac{\partial L}{\partial b^{(l,p)}} = \sum_{i,j}[\delta^{(l,p)}]_{i,j}为损失函数关于第ll层的第p个偏置b(l,p)b^{(l,p)}的偏导数。

  在卷积网络中,每层参数的梯度依赖于其所在层的误差项δ(l,p)\delta^{(l,p)}

3.1 误差项的计算

  误差项δ(l,p)\delta^{(l,p)}的计算是关键。

汇聚层 当第 l+1l+1 层为汇聚层时,因汇聚层时下采样,l+1l+1 层的每个神经元的误差项 δ\delta 对应于第 ll 层的相应特征映射的一个区域,ll 层的第 pp 个特征映射中的每个神经元都有一条边和 l+1l+1 层的第 pp 个特征映射中的一个神经元相连. 根据链式法则,第ll 层的一个特征映射的误差项 δ(l,p)\delta^{(l,p)},只需要将 l+1l+1 层对应特征映射的误差项 δ(l+1,p)\delta^{(l+1,p)} 进行上采样操作(和第 ll 层的大小一样),再和𝑙 层特征映射的激活值偏导数逐元素相乘,就得到了δ(l,p)\delta^{(l,p)}
在这里插入图片描述
其中fl()f_l^{'}(\cdot)为第ll层使用的激活函数的导数,up为上采样函数。若下采样是最大汇聚,误差项 δ(l+1,p)\delta^{(l+1,p)} 中的每个值都直接传到上一层对应区域中的最大值所对应的神经元,该区域其他神经元的误差项设为0。若下采样是平均汇聚,误差项 δ(l+1,p)\delta^{(l+1,p)} 中的每个值都会被平均分配到上一层对应区域中的所有神经元上。

卷积层l+1l+1 层为卷积层时,假设特征映射净输入 Z(l+1)RM×N×PZ^{(l+1)} \in \mathbb{R}^{M^{'} \times N^{'} \times P}。其中第 p(1pP)p(1 \leq p \leq P) 个特征映射输入为:
在这里插入图片描述
其中 W(l+1,p,d)\pmb{W}^{(l+1, p, d)}b(l+1,p)b^{(l+1, p)} 为第 l+1l+1 层的卷积核、偏置。第 l+1l+1 层中共有 P×DP \times D 个卷积核和 PP 个偏置。第 ll 层的第 dd 个特征映射的误差项 δ(l,d)\delta^{(l,d)} 的具体推导过程如下,其中 ^\hat{\bigotimes} 为宽卷积:
在这里插入图片描述

4 典型的卷积神经网络

4.1 LeNet-5

  LeNet-5网络结构如图:
在这里插入图片描述
  LeNet-5网络共有7层,输入图像为 32 ×\times 32,输出对应为10个类别数字的概率得分。每层结构如下:

  1. C1卷积层:6个5 ×\times 5的滤波器,得到6组28 ×\times 28=784的特征映射,故C1层的神经元数量为6 ×\times 784=4704,可训练参数数量为6 ×\times 25+6=156,连接数为156 ×\times 784=122304.
  2. S2汇聚层:平均汇聚,采样窗口为 2 ×\times 2,并接一个激活函数,神经元个数为6 ×\times 14 ×\times 14 = 1176,可训练参数数量为 6×(1+1)=126 \times (1+1) = 12,连接数为 6×196×(4+1)=58806 \times 196 \times (4+1) = 5880
  3. C3卷积层:LeNet-5用连接表来定义输入和输出特征映射之间的依赖关系,共使用60个5×55 \times 5 的滤波器,得到16组大小为10×1010 \times 10 的特征映射,神经元个数为16 ×\times 100 = 1600,可训练参数数量为 60×25+1=151660 \times 25 + 1 = 1516,连接数为 100×1516=151600100 \times 1516 = 151600
  4. S4汇聚层:采样窗口为 2×22 \times 2 ,得到16个 5×55 \times 5大小的特征映射,可训练参数数量为 16×2=3216 \times 2 = 32,连接数为 16×25×(4+1)=200016 \times 25 \times (4+1) = 2000
  5. C5卷积层:使用 120×16=1920120 \times 16 = 19205×55 \times 5 的滤波器,得到120组大小为 1×11 \times 1 的特征映射。C5层的神经元数量为120,可训练参数数量为 1920×25+120=481201920 \times 25 + 120 = 48120,连接数为 120×(16×25+1)=48120120 \times (16 \times 25 + 1) = 48120
  6. F6全连接层:84个神经元,可训练参数数量为 84×(120+1)=1016484 \times (120+1) = 10164。连接数和可训练参数个数相同,为10164。
  7. 输出层:输出层由 10个径向基函数 组成。

连接表 卷积层的输入和输出特征映射之间是全连接关系,可用连接表转为为非全连接关系。
在这里插入图片描述
C3层的第0-5个特征映射依赖于S2 层的特征映射组的每3个连续子集,第6-11个特征映射依赖于S2 层的特征映射组的每4个连续子集,第12-14个特征映射依赖于S2 层的特征映射的每4个不连续子集,第15个特征映射依赖于S2 层的所有特征映射。
  如果第p个输出特征映射依赖于第𝑑个输入特征映射,则Tp,d=1T_{p,d} = 1,否则为0。
在这里插入图片描述
其中𝑇 为𝑃 × 𝐷 大小的连接表. 假设连接表𝑇 的非零个数为𝐾,每个滤波器的大小为𝑈 × 𝑉,那么共需要𝐾 × 𝑈 × 𝑉 + 𝑃 参数。

4.2 AlexNet

  AlexNet是第一个现代深度卷积网络模型,首次使用GPU 进行并行训练,采用了ReLU 作为非线性激活函数,使用Dropout 防止过拟合,使用数据增强来提高模型准确率等。AlexNet 赢得了2012 年ImageNet 图像分类竞赛的冠军。
  AlexNet网络规模超出了当时的单个GPU 的内存限制,AlexNet 将网络拆为两半,分别放在两个GPU 上,GPU 间只在某些层(比如第3层)进行通信。
在这里插入图片描述
  AlexNet 的输入为224 × 224 × 3 的图像,输出为1 000 个类别的条件概率,具体结构如下:

  1. 卷积层1:两个大小为11 × 11 × 3 × 48 的卷积核,步长𝑆 = 4,零填充𝑃 = 3,得到两个大小为55 × 55 × 48 的特征映射组。
  2. 汇聚层1:为3 × 3 的最大汇聚操作,步长𝑆 = 2,得到两个27 × 27 × 48 的特征映射组。
  3. 卷积层2:两个大小为5 × 5 × 48 × 128 的卷积核,步长𝑆 = 1,零填充𝑃 = 2,得到两个大小为27 × 27 × 128 的特征映射组。
  4. 汇聚层2:3 × 3 的最大汇聚操作,步长𝑆 = 2,得到两个大小为13 × 13 × 128 的特征映射组。
  5. 卷积层3:两个路径的融合,使用一个大小为3 × 3 × 256 × 384 的卷积核,步长𝑆 = 1,零填充𝑃 = 1,得到两个大小为13 × 13 × 192 的特征映射组。
  6. 卷积层4:两个大小为3 × 3 × 192 × 192 的卷积核,步长𝑆 = 1,零填充𝑃 = 1,得到两个大小为13 × 13 × 192 的特征映射组。
  7. 卷积层5:两个大小为3 × 3 × 192 × 128 的卷积核,步长𝑆 = 1,零填充𝑃 = 1,得到两个大小为13 × 13 × 128 的特征映射组。
  8. 汇聚层3:3 × 3 的最大汇聚操作,步长𝑆 = 2,得到两个大小为6 × 6 × 128 的特征映射组。
  9. 全连接层:三个全连接层,神经元数量分别为4096、4096 和1 000。

  AlexNet 在前2个汇聚层之后进行了局部响应归一化(Local Response Normalization,LRN)以增强模型的泛化能力。

4.3 Inception

  在Inception 网络中,一个卷积层包含多个不同大小的卷积操作,称为Inception 模块。Inception 网络是由有多个Inception 模块和少量的汇聚层堆叠而成。
  Inception 模块同时使用1 × 1、3 × 3、5 × 5 等不同大小的卷积核,并将得到的特征映射在深度上拼接(堆叠)起来作为输出特征映射。先用1 × 1卷积对四组平的特征抽取方式进行减少特征映射的深度。
在这里插入图片描述
  Inception V1版本的GoogleNet是2014 年ImageNet 图像分类竞赛的冠军。由9个Inception V1模块和5个汇聚层、卷积层、全连接层共22层网络构成,并引入两个辅助分类器来加强监督信息以解决梯度消失问题:
在这里插入图片描述
高清图见:GoogLeNet网络结构图

  Inception 网络有多个改进版本,如Inception V3:Inception v3 网络用多层的小卷积核来替换大的卷积核,以减少计算量和参数量,并保持感受野不变。具体包括:(1)使用两层3 × 3 的卷积来替换v1 中的5 × 5 的卷积;(2)使用连续的𝐾 × 1 和1 × 𝐾 来替换𝐾 × 𝐾 的卷积。引入了标签平滑以及批量归一化等优化方法进行训练。

4.4 残差网络

  残差网络(Residual Network,ResNet)通过给非线性的卷积层增加直连边(Shortcut Connection)提高信息的传播效率。
  在一个深度网络中,常用一个非线性单元 f(x;θ)f(\pmb{x};\theta) 去逼近目标函数 h(x)h(x) 。若将目标函数拆分为:恒等函数 x\pmb{x} 和残差函数 h(x)xh(\pmb{x}) - \pmb{x}:
在这里插入图片描述
残差函数更容易学习,故将优化问题转为:让非线性单元 f(x;θ)f(\pmb{x};\theta) 去逼近残差函数 h(x)xh(\pmb{x}) - \pmb{x},利用f(x;θ)+xf(\pmb{x};\theta) + \pmb{x} 去逼近 h(x)h(\pmb{x})
  残差网络将很多个残差单元串联起来构成的一个非常深的网络。残差单元由多个级联的(等宽)卷积层和一个跨层的直连边组成,再经过ReLU 激活后得到输出:
在这里插入图片描述

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章