regularization 正則化

機器學習筆記 - 吳恩達 - 目錄


筆記

描述

正則化是什麼?
正則化是通過對假設函數附加一項正則化參數,來減小該項的擬合程度。

爲什麼要有正則化?
有的時候,爲了更好的擬合數據的情況,我們會在訓練時,添加高階項。但這會引發新的問題,如果訓練的足夠多,那會產生過擬合現象,這時候很難對測試數據有更好的泛化性。如果訓練的不夠,又會導致欠擬合情況,連訓練集都無法準確預測。

線性迴歸_欠擬合_過擬合

邏輯迴歸_欠擬合_過擬合

如何正則化?
爲了不過擬合,我們想要保持高階項的係數足夠小(又不想直接去除該項,因爲高階項或多或少有一定影響),引入一個懲罰項,稱爲正則化項,使得模型相對簡單。
引入正則化項懲罰特徵

爲何正則化能減小某一項的影響?
我們通過設置正則化參數λ\lambda,該值設得越大,就對其特徵θj\theta_j懲罰程度越大,使其特徵θj\theta_j的影響越小。
(這是由於,訓練時有正則化項,預測時沒有,所以θj\theta_j的值小了,影響小了)
:懲罰過大,可能出現擬合


關鍵點

(我們不對j=0對應的θ0\theta_0作懲罰,因爲θ0\theta_0項的x0=1x_0 = 1,沒有必要懲罰)

線性迴歸的正則化:
代價函數:
J(θ)=12m[i=1m(hθ(x(i))yi)2+λj=1nθj2] J(\theta) = \frac{1}{2m} [ \sum_{i=1}^{m} (h_\theta (x^{(i)}) - y^{i})^2 + \lambda \sum_{j=1}^{n} \theta_j^2]
更新系數:
θ0:=θ0α1mi=1m(hθ(x(i))y(i))xj(i)     (j=0)θj:=θjα[1mi=1m(hθ(x(i))y(i))xj(i)+λmθj]:=θj(1λλm)α1mi=1m(hθ(x(i))y(i))xj(i)     (j=1,2,...,n) \theta_0 := \theta_0 - \alpha \frac{1}{m} \sum_{i=1}^{m} (h_\theta (x^{(i)}) - y^{(i)}) x_j^{(i)} \ \ \ \ \ (j = 0) \\ \theta_j := \theta_j - \alpha [ \frac{1}{m} \sum_{i=1}^{m} (h_\theta (x^{(i)}) - y^{(i)}) x_j^{(i)} + \frac{\lambda}{m} \theta_j ] \\ := \theta_j (1 - \lambda \frac{\lambda}{m}) - \alpha \frac{1}{m} \sum_{i=1}^{m} (h_\theta (x^{(i)}) - y^{(i)}) x_j^{(i)} \ \ \ \ \ (j = 1, 2, ... , n)
(其中,λj=1nθj2\lambda \sum_{j=1}^{n} \theta_j^2就是正則化參數regularization parameter)

邏輯迴歸的正則化:
代價函數:
J(θ)=[1mi=1myiloghθ(x(i))+(1yi)log(1hθ(xi))]+λ2mj=1nθj2 J (\theta) = - [\frac{1}{m} \sum_{i=1}^{m} y^i log{h_\theta (x^{(i)})} + (1 - y^{i}) log ({1 - h_\theta (x^{i}))}] + \frac{\lambda}{2m} \sum_{j=1}^{n} \theta_j^2
更新系數:
θ0:=θ0α1mi=1m(hθ(x(i))y(i))xj(i)     (j=0)θj:=θjα[1mi=1m(hθ(x(i))y(i))xj(i)+λmθj]     (j=1,2,3,...,n) \theta_0 := \theta_0 - \alpha \frac{1}{m} \sum_{i=1}^{m} (h_\theta (x^{(i)}) - y^{(i)}) x_j^{(i)} \ \ \ \ \ (j = 0) \\ \theta_j := \theta_j - \alpha [\frac{1}{m} \sum_{i=1}^{m} (h_\theta (x^{(i)}) - y^{(i)}) x_j^{(i)} + \frac{\lambda}{m} \theta_j ] \ \ \ \ \ (j = 1, 2, 3, ... , n)
(其中,12mλj=1nθj2\frac{1}{2m} \lambda \sum_{j=1}^{n} \theta_j^2就是正則化參數regularization parameter)


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章