過擬合的原因有很多:
在訓練數據分佈和數據本身分佈一樣的情況下,過擬合的主要原因是模型學習了訓練數據的細節和噪聲。
解決方法:
1. 正則化
正則化方法主要有L1正則化和L2正則化。那麼兩者的區別:
a. L1 泛化能力更好,因爲其可以過濾掉更多的特徵。
2. Dropout
這是神經網絡裏面常用的緩解過擬合的主要方法。
其思想可參考:https://blog.csdn.net/stdcoutzyx/article/details/49022443
過擬合的原因有很多:
在訓練數據分佈和數據本身分佈一樣的情況下,過擬合的主要原因是模型學習了訓練數據的細節和噪聲。
解決方法:
1. 正則化
正則化方法主要有L1正則化和L2正則化。那麼兩者的區別:
a. L1 泛化能力更好,因爲其可以過濾掉更多的特徵。
2. Dropout
這是神經網絡裏面常用的緩解過擬合的主要方法。
其思想可參考:https://blog.csdn.net/stdcoutzyx/article/details/49022443