AlexNet

AlexNet 论文

《ImageNet Classification with Deep Convolutional Neural Networks》

AlexNet网络结构描述

在这里插入图片描述
Conv1 :输入2272273227*227*3,卷积核大小为1111311*11*3,移动步长为44,数量为9696个,输出55559655*55*96
Relu1:输出55559655*55*96
Pool1:池化核大小为333*3,移动步长为22,输出27279627*27*96;
Norm1:local_size =$ 5$,输出27279627*27*96;
Conv2:输入27279627*27*96,卷积核大小为55965*5*96,移动步长为11,数量为256256,输出272725627*27*256
Relu2:输出272725627*27*256;
Pool2:池化核大小为333*3,移动步长为22,输出131325613*13*256;
Conv3:输入131325613*13*256,输出131338413*13*384
Conv4:输入131338413*13*384,输出131338413*13*384;
Conv5:输入131338413*13*384,输出662566*6*256;
Fc6:40964096个神经元,输出为409614096*1;
Fc7:输出409614096*1;
Fc8:输出100011000*1;

AlexNet特点

  • 成功使用ReLU作为CNN的激活函数,解决了Sigmoid在网络较深时的梯度弥散问题。
  • 训练时使用Dropout随机忽略一部分神经元,以避免模型过拟合。在AlexNet中主要是最后几个全连接层使用了Dropout。
  • 在CNN中使用重叠的最大池化(OverlappingPooling)。此前CNN中普遍使用平均池化,AlexNet全部使用最大池化,避免平均池化的模糊化效果。并且AlexNet中提出让步长比池化核的尺寸小,这样池化层的输出之间会有重叠和覆盖,提升了特征的丰富性。
  • 提出了LRN(Local ResponseNormalization)层,对局部神经元的活动创建竞争机制,使得其中响应比较大的值变得相对更大,并抑制其他反馈较小的神经元,增强了模型的泛化能力。
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章