關於 epoch、 iteration和batchsize

深度學習中經常看到epoch、 iteration和batchsize,下面按自己的理解說說這三個的區別:


(1)batchsize:批大小。在深度學習中,一般採用SGD訓練,即每次訓練在訓練集中取batchsize個樣本訓練;

(2)iteration:1個iteration等於使用batchsize個樣本訓練一次;

(3)epoch:1個epoch等於使用訓練集中的全部樣本訓練一次;


舉個例子,訓練集有1000個樣本,batchsize=10,那麼:

訓練完整個樣本集需要:

100次iteration,1次epoch。


關於batchsize可以看看這裏。https://www.zhihu.com/question/32673260


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章