1. 種類
常見的的池化層有最大池化(max pooling)和平均池化(average pooling):
2. 作用
- 通過池化層可以減少空間信息的大小,也就提高了運算效率;
- 減少空間信息也就意味着減少參數,這也降低了overfit的風險;
- 獲得空間變換不變性(translation rotation scale invarance,平移旋轉縮放的不變性);
下面展示了不變性的例子,下面的例子摘抄於網上,不具有普適性,大家理解思想就好:
一些網絡不用pooling的原因是想學習關於位置的信息.
3.具體操作
以上圖爲例子說一下 maxpooling 的輸入:
Input: H1 x W1 x Depth_In x Batch_SIze(這裏爲224x224x64x2,batch size其實沒體現出來)
stride(步長爲1)
kernel size(核的尺寸爲(2, 2),所以池化之後特徵圖長寬變爲1/2)
4. 想法
池化層屬於網絡的靜態屬性,不需要學習任何參數,所以是神經網絡中比較簡單的層.