看過相關論文的可能都注意到了,Dropout與Batch Normalization同時使用並不能達到1+1>=2的效果,反而會適得其反,下面我就用實踐來看看究竟會怎樣
直接上圖:
以上結果都是在參數一樣的情況下跑的
左上:原始網絡 右上:單獨添加了dropout的網絡
左下:單獨添加了BN的網絡 右下:添加了BN+dropout的網路(BN在前,dropout在後)
最後一張圖:添加了BN+dropout的網路(BN在後,dropout在前)
從實驗的結果看,網絡一定要加BN和dropout,並且BN單獨用還是要好點。下面給出實驗用的網絡,GitHub上的。
鏈接:https://pan.baidu.com/s/1_4DqFpF8ytYdS3hNw5wQUg
提取碼:ts1l