假設:
輸入圖片大小 W×W
Filter大小 F×F
步長 S
padding的像素數 P
輸出圖片大小爲 N×N
那麼:
N = (W − F + 2P )/S+1
池化層的功能:
- 第一,又進行了一次特徵提取,所以能減小下一層數據的處理量。
- 第二,能夠獲得更爲抽象的信息,從而防止過擬合,也就是提高了一定的泛化性
- 第三,由於這種抽象性,所以能對輸入的微小變化產生更大的容忍,也就是保持了它的不變性,這裏的容忍包括圖像的少量平移、旋轉縮放等操作變化。
假設:
輸入圖片大小 W×W
Filter大小 F×F
步長 S
padding的像素數 P
輸出圖片大小爲 N×N
那麼:
N = (W − F + 2P )/S+1
池化層的功能:
2012年,Imagenet比賽冠軍的model——Alexnet,它證明了CNN在複雜模型下的有效性,然後GPU實現使得訓練在可接受的時間範圍內得到結果,推動了有監督DL的發展。 模型結構見下圖: