線性迴歸
模型:
f(x)=ωx+b
損失函數:
loss=i=1∑N(y−f(x))2
訓練方法
1.最小二乘法
對ω函數求導
∂w∂loss=i=1∑N2ωxi2+2bxi−2yixi
對b求導
∂b∂loss=i=1∑N2wxi+2b−2yi
令w和b的導數都爲零,即可求得w和b
2.梯度下降法
1.給所有參數隨機設定初始值
2.對每個參數求導求導(同最小二乘法求導)
3.迭代(θ代表w和b)
θ=θ−η∂θ∂loss
η爲學習率(0-1)。
缺點:迭代時需要所有計算所有樣本然後更新參數。(loss 爲凸函數,一定能找到最小值,否則不一定能找到最小值,跟起始點選擇有關)
改進:隨機梯度下降,每次只帶入一部分樣本進行迭代(不保證找到全局最小)。
線性分類
模型:
f(x)=sign(ωx+b)
sign(x)={+1,x≥0−1,x≤0
損失函數:
loss=i=1∑Myi(ωxi+b)
M 爲誤分類點的集合。
yi(ωxi+b)>0的點就誤分類的點
訓練方法(梯度下降)
1.給所有參數隨機設定初始值
2.對每個參數求導求導(同最小二乘法求導)
∂ω∂loss=i=1∑Myixi
∂b∂loss=i=1∑Myi
3.迭代(θ代表w和b)
θ=θ−η∂θ∂loss
η爲學習率(0-1)。