Deep learning II - I Practical aspects of deep learning - 正則化如何較少過擬合

How regularization reduces overfitting?


  • 解釋 1 通過regularization, 使得神經網絡各個層級的參數W 都更小更趨近於零,從而使得一個複雜的神經網絡變得更像一個簡單的神經網絡(當參數真爲零是,就是簡單的神經網絡了),從而減小過擬合。
    這裏寫圖片描述
  • 解釋 2tanh 激勵函數爲例,當w[l] 較小時,則z[l]=w[l]a[l1]+b[l] 也會更小,所以在使用激勵函數的時候,對應其靠近零的線性部分,所以整個網絡都會更加趨於線性函數,從而無法計算很複雜的非線性函數,從而防止過擬合。
    這裏寫圖片描述
發佈了19 篇原創文章 · 獲贊 32 · 訪問量 9萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章