模型訓練

白化

減均值:使分佈以0爲中心
除以方差:自然圖像本身就是,不用除

BN和dropout

區別聯繫
BN:論文中提到了四個優點

  • 使用更高的學習率
  • 不用太擔心初始化
  • 像一個正則項,減少dropout的需求,但不矛盾
  • 使更快收斂

實現:weight和bias對應gamma和beta,running mean 和 var對應內部的累計均值和方差,配合momentum在訓練時使用,直接在測試時使用。affine控制是否學習scale和shift,即weight和bias。

GPU設置

設置使用的gpu個數

訓練技巧

val和train的gap,lr。。。

優化方法的選擇

各種方法的比較,推薦adam
簡短版本

Loss

均方差和交叉熵

C=(ya)22

熵和交叉熵:熵就是最優編碼,交叉熵就是用p的最優編碼來編碼q的平均編碼長度。
H(p)=xp(x)log2(1p(x))

Hp(q)=xq(x)log2(1p(x))

Softmax

softmax 層的輸出是一個概率分佈。在許多問題中,我們可以很方便地將輸出激活值看作是神經網絡認爲結果是的概率。

aLj=ezLjkezLk
發佈了54 篇原創文章 · 獲贊 11 · 訪問量 2萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章