理一理dl,準備複試

卷積

  • 卷積核(filter)
  • strides
  • padding:利用好邊緣部分的特徵,避免圖片過小
(f-n)/s+1

池化

  • 最大池化(常用)
  • 平均池化
2*2 減半最爲常用

防止過擬合

  • L1正則化:與參數的絕對值正比
  • L2正則化:正比於參數的平方
  • 數據增強
  • 畫出訓練集和驗證集的loss曲線,提前終止迭代
  • dropout:以1-keep_prop的概率決定是否消除某個節點,簡化網絡
  • BatchNorm:
    通過一定的規範化手段,把每層神經網絡任意神經元這個輸入值的分佈強行拉回到均值爲0方差爲1的標準正態分佈,其實就是把越來越偏的分佈強制拉回比較標準的分佈,這樣使得激活輸入值落在非線性函數對輸入比較敏感的區域,這樣輸入的小變化就會導致損失函數較大的變化,意思是這樣讓梯度變大,避免梯度消失問題產生,而且梯度變大意味着學習收斂速度快,能大大加快訓練速度。

激活函數

  • sigmoid
  • tanh
  • ReLU
  • LeakyReLU

高偏差與高方差

訓練集的錯誤率極低,而驗證集的錯誤率較高,則認爲發生了過擬合,即高方差
訓練集的錯誤率較高,驗證集的錯誤率也較高,則認爲發生了欠擬合,即高偏差

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章