降低過擬合的方法有:
- 正則化
- 隨機失活(dropout)
- 逐層歸⼀化(batch normalization)
- early stopping
那麼問題來了:
1、過擬合的解決方式有哪些,L1和L2正則化都有哪些不同,各自有什麼優缺點?
2、L1正則化可以得到稀疏解,L2正則化可以得到平滑解,這是爲什麼呢?
3、怎樣從數學角度解釋,L2正則化能提升模型的泛化能力?
先看下面文章,理解L1,L2正則
降低過擬合的方法有:
那麼問題來了:
1、過擬合的解決方式有哪些,L1和L2正則化都有哪些不同,各自有什麼優缺點?
2、L1正則化可以得到稀疏解,L2正則化可以得到平滑解,這是爲什麼呢?
3、怎樣從數學角度解釋,L2正則化能提升模型的泛化能力?
先看下面文章,理解L1,L2正則