過擬合以及L1和L2區別

過擬合的原因有很多:

在訓練數據分佈和數據本身分佈一樣的情況下,過擬合的主要原因是模型學習了訓練數據的細節和噪聲。

解決方法:

1. 正則化

正則化方法主要有L1正則化和L2正則化。那麼兩者的區別:  

         a. L1 泛化能力更好,因爲其可以過濾掉更多的特徵。

2. Dropout

 這是神經網絡裏面常用的緩解過擬合的主要方法。

其思想可參考:https://blog.csdn.net/stdcoutzyx/article/details/49022443

 

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章