過擬合與正則化

降低過擬合的方法有:

  • 正則化
  • 隨機失活(dropout)
  • 逐層歸⼀化(batch normalization)
  • early stopping

那麼問題來了:

1、過擬合的解決方式有哪些,L1和L2正則化都有哪些不同,各自有什麼優缺點?
2、L1正則化可以得到稀疏解,L2正則化可以得到平滑解,這是爲什麼呢?
3、怎樣從數學角度解釋,L2正則化能提升模型的泛化能力?

先看下面文章,理解L1,L2正則

機器學習中正則化項L1和L2的直觀理解 

L0、L1與L2範數

 

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章