線性模型

線性迴歸

模型:

f(x)=ωx+bf\left(x\right)=\omega x+b

損失函數:

loss=i=1N(yf(x))2loss=\sum_{i=1}^N\left(y-f\left(x\right)\right)^2

訓練方法

1.最小二乘法

ω\omega函數求導
lossw=i=1N2ωxi2+2bxi2yixi\frac{\partial loss}{\partial w}=\sum_{i=1}^N2\omega x_i^2+2bx_i-2y_ix_i
bb求導
lossb=i=1N2wxi+2b2yi\frac{\partial loss}{\partial b}=\sum_{i=1}^N2wx_i+2b-2y_i

wwbb的導數都爲零,即可求得wwbb

2.梯度下降法

1.給所有參數隨機設定初始值
2.對每個參數求導求導(同最小二乘法求導)
3.迭代(θ\theta代表wwbb
θ=θηlossθ\theta=\theta-\eta\frac{\partial loss}{\partial\theta}
η\eta爲學習率(0-1)。
缺點:迭代時需要所有計算所有樣本然後更新參數。(loss 爲凸函數,一定能找到最小值,否則不一定能找到最小值,跟起始點選擇有關)
改進:隨機梯度下降,每次只帶入一部分樣本進行迭代(不保證找到全局最小)。

線性分類

模型:

f(x)=sign(ωx+b)f\left(x\right)=sign(\omega x+b)
sign(x)={+1,x01,x0sign(x)=\left\{\begin{array}{l}+1,x\geq0\\-1,x\leq0\end{array}\right.

損失函數:

loss=i=1Myi(ωxi+b)loss=\sum_{i=1}^My_i\left(\omega x_i+b\right)
M 爲誤分類點的集合。
yi(ωxi+b)>0y_i\left(\omega x_i+b\right)>0的點就誤分類的點

訓練方法(梯度下降)

1.給所有參數隨機設定初始值
2.對每個參數求導求導(同最小二乘法求導)
lossω=i=1Myixi\frac{\partial loss}{\partial\omega}=\sum_{i=1}^My_ix_i
lossb=i=1Myi\frac{\partial loss}{\partial b}=\sum_{i=1}^My_i
3.迭代(θ\theta代表wwbb
θ=θηlossθ\theta=\theta-\eta\frac{\partial loss}{\partial\theta}
η\eta爲學習率(0-1)。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章