caffe中solver.prototxt參數說明

http://www.cnblogs.com/denny402/p/5074049.html

solver算是caffe的核心的核心,它協調着整個模型的運作。caffe程序運行必帶的一個參數就是solver配置文件。運行代碼一般爲

# caffe train --solver=*_slover.prototxt

在Deep Learning中,往往loss function是非凸的,沒有解析解,我們需要通過優化方法來求解。solver的主要作用就是交替調用前向(forward)算法和後向(backward)算法來更新參數,從而最小化loss,實際上就是一種迭代的優化算法。

到目前的版本,caffe提供了六種優化算法來求解最優參數,在solver配置文件中,通過設置type類型來選擇。

  • Stochastic Gradient Descent (type: "SGD"),
  • AdaDelta (type: "AdaDelta"),
  • Adaptive Gradient (type: "AdaGrad"),
  • Adam (type: "Adam"),
  • Nesterov’s Accelerated Gradient (type: "Nesterov") and
  • RMSprop (type: "RMSProp")

 具體的每種方法的介紹,請看本系列的下一篇文章, 本文着重介紹solver配置文件的編寫。

Solver的流程:

1.     設計好需要優化的對象,以及用於學習的訓練網絡和用於評估的測試網絡。(通過調用另外一個配置文件prototxt來進行)

2.     通過forward和backward迭代的進行優化來跟新參數。

3.     定期的評價測試網絡。 (可設定多少次訓練後,進行一次測試)

4.     在優化過程中顯示模型和solver的狀態

在每一次的迭代過程中,solver做了這幾步工作:

1、調用forward算法來計算最終的輸出值,以及對應的loss

2、調用backward算法來計算每層的梯度

3、根據選用的slover方法,利用梯度進行參數更新

4、記錄並保存每次迭代的學習率、快照,以及對應的狀態。

接下來,我們先來看一個實例:

複製代碼
net: "examples/mnist/lenet_train_test.prototxt"
test_iter: 100
test_interval: 500
base_lr: 0.01
momentum: 0.9
type: SGD
weight_decay: 0.0005
lr_policy: "inv"
gamma: 0.0001
power: 0.75
display: 100
max_iter: 20000
snapshot: 5000
snapshot_prefix: "examples/mnist/lenet"
solver_mode: CPU
複製代碼

接下來,我們對每一行進行詳細解譯:

net: "examples/mnist/lenet_train_test.prototxt"

設置深度網絡模型。每一個模型就是一個net,需要在一個專門的配置文件中對net進行配置,每個net由許多的layer所組成。每一個layer的具體配置方式可參考本系列文文章中的(2)-(5)。注意的是:文件的路徑要從caffe的根目錄開始,其它的所有配置都是這樣。

也可用train_net和test_net來對訓練模型和測試模型分別設定。例如:

train_net: "examples/hdf5_classification/logreg_auto_train.prototxt"
test_net: "examples/hdf5_classification/logreg_auto_test.prototxt"

接下來第二行:

test_iter: 100

這個要與test layer中的batch_size結合起來理解。mnist數據中測試樣本總數爲10000,一次性執行全部數據效率很低,因此我們將測試數據分成幾個批次來執行,每個批次的數量就是batch_size。假設我們設置batch_size爲100,則需要迭代100次才能將10000個數據全部執行完。因此test_iter設置爲100。執行完一次全部數據,稱之爲一個epoch

test_interval: 500

測試間隔。也就是每訓練500次,才進行一次測試。

base_lr: 0.01
lr_policy: "inv"
gamma: 0.0001
power: 0.75

這四行可以放在一起理解,用於學習率的設置。只要是梯度下降法來求解優化,都會有一個學習率,也叫步長。base_lr用於設置基礎學習率,在迭代的過程中,可以對基礎學習率進行調整。怎麼樣進行調整,就是調整的策略,由lr_policy來設置。

http://stackoverflow.com/questions/30033096/what-is-lr-policy-in-caffe  詳細的說明lr_policy的參數變化  有圖

點擊打開鏈接

lr_policy可以設置爲下面這些值,相應的學習率的計算爲:

    • - fixed:   保持base_lr不變.
    • - step:    如果設置爲step,則還需要設置一個stepsize,  返回 base_lr * gamma ^ (floor(iter / stepsize)),其中iter表示當前的迭代次數
    • - exp:     返回base_lr * gamma ^ iter, iter爲當前迭代次數
    • - inv:      如果設置爲inv,還需要設置一個power, 返回base_lr * (1 + gamma * iter) ^ (- power)
    • - multistep: 如果設置爲multistep,則還需要設置一個stepvalue。這個參數和step很相似,step是均勻等間隔變化,而multistep則是根據                                 stepvalue值變化
    • - poly:     學習率進行多項式誤差, 返回 base_lr (1 - iter/max_iter) ^ (power)
    • - sigmoid: 學習率進行sigmod衰減,返回 base_lr ( 1/(1 + exp(-gamma * (iter - stepsize))))

multistep示例:

複製代碼
base_lr: 0.01
momentum: 0.9
weight_decay: 0.0005
# The learning rate policy
lr_policy: "multistep"
gamma: 0.9
stepvalue: 5000
stepvalue: 7000
stepvalue: 8000
stepvalue: 9000
stepvalue: 9500
複製代碼

接下來的參數:

momentum :0.9

上一次梯度更新的權重,具體可參看下一篇文章。

type: SGD

優化算法選擇。這一行可以省掉,因爲默認值就是SGD。總共有六種方法可選擇,在本文的開頭已介紹。

weight_decay: 0.0005

權重衰減項,防止過擬合的一個參數。

display: 100

每訓練100次,在屏幕上顯示一次。如果設置爲0,則不顯示。

max_iter: 20000

最大迭代次數。這個數設置太小,會導致沒有收斂,精確度很低。設置太大,會導致震盪,浪費時間。

snapshot: 5000
snapshot_prefix: "examples/mnist/lenet"

快照。將訓練出來的model和solver狀態進行保存,snapshot用於設置訓練多少次後進行保存,默認爲0,不保存snapshot_prefix設置保存路徑。

還可以設置snapshot_diff,是否保存梯度值,默認爲false,不保存。

也可以設置snapshot_format,保存的類型。有兩種選擇:HDF5 和BINARYPROTO ,默認爲BINARYPROTO

solver_mode: CPU

設置運行模式。默認爲GPU,如果你沒有GPU,則需要改成CPU,否則會出錯。



具體代碼加解釋:

[python] view plain copy
  1. net: "models/bvlc_reference_caffenet/train_val.prototxt"    #設置網絡模型,文件的路徑要從caffe的根目錄開始  
  2. test_iter: 1000       #與test layer中的batch_size結合起來理解,假設樣本總數爲10000,一次性執行全部數據效率低,因此將測試數據分成幾個批次來執行,每個批次的數量就是batch_size。假設batch_size爲100,則需要迭代100次才能將10000個數據全部執行完,因此test_iter設置爲100.  
  3. test_interval: 1000     #測試間隔,也就是每訓練test_interval次,才進行一次測試  
  4. base_lr: 0.01    #0.01基礎學習率,因爲數據量小,0.01就會下降太快了,因此改成0.001  
  5. lr_policy: "step"   #學習率變化  
  6. gamma: 0.1          #學習率變化的比率  
  7.  #base_lr\lr_policy\gamma\power四個可以一起理解,用於學習率的設置。只要是梯度下降法來求解優化,都會有一個學習率,也叫步長。base_lr用於設置基礎學習率,在迭代過程中,可以對基礎學習率進行調整。怎樣進行調整,也就是調整的策略,由lr_poliy來設置。  
  8. stepsize: 100000   #每stepsize次迭代減少學習率  
  9. display: 20     #每訓練display次在屏幕上顯示一次  
  10. max_iter: 450000   #最大迭代次數,這個數設置太小,會導致沒有收斂,精確度很低。設置太大,會導致震盪,浪費時間  
  11. momentum: 0.9     #上一次梯度更新的權重  
  12. weight_decay: 0.0005 #權重衰減項,防止過擬合的一個參數  
  13. snapshot: 10000     
  14. snapshot_prefix: "models/bvlc_reference_caffenet/caffenet_train"   #snapshot\snapshot_prefix 快照。將訓練出來的model和solver狀態進行保存,snapshot用於設置訓練多少次後進行保存,默認爲0,不保存。snapshot_prefix 設置保存路徑。也可以用snapshot_format來保存類型,有兩種選擇:HDF5 和 BINARYPROTO ,默認類型爲後者  
  15. solver_mode: CPU   #設置運行模式,默認爲GPU  
  16. #GPU模式  
  17. #solver_mode: GPU  
  18. #device_id: 0  #在cmdcaffe接口下,GPU序號從0開始,如果有一個GPU,則device_id:0  
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章