0.邏輯迴歸的引出
對分類問題應用線性迴歸不是一個好主意
二分類問題:
0:negative class
1:positive class
If h(x)>0.5, predict y=1
If h(x)<0.5, predict y=0
Logistic regression: 0<h(x)<1
1.假設函數hypothesis function
線性迴歸的假設函數爲:hθ(x)=θTx
S 型函數/Sigmoid function/logistic function: g(z)=1+e−z1
![在這裏插入圖片描述]()
logistic迴歸的假設函數爲:hθ(x)=g(θTx)
其中,g(z)=1+e−z1
所以,logistic迴歸的假設函數爲:hθ(x)=1+e−θTx1
假設函數 hθ(x)的意義:
hθ(x)=P(y=1∣x;θ)
hθ(x)表示在x,θ條件下y=1的條件概率
![在這裏插入圖片描述]()
決策邊界(decision boundary)
![在這裏插入圖片描述]()
預測輸出y等於0還是1:通過判斷z>0或z < 0,即通過判斷θTx>0 or θTx<0
![在這裏插入圖片描述]()
(上圖:通過增加複雜的多項式特徵變量(平方,三次方等),可以得到更復雜的決策邊界)
2.代價函數cost function
如何擬合邏輯迴歸模型的參數θ,即給定訓練集,根據數據自動擬合參數。
![在這裏插入圖片描述]()
如果繼續使用線性迴歸時的代價函數,是非凸函數,有局部最優值,當使用梯度下降算法時可能找不到最優值。故選擇另一種代價函數。(凸函數是單弓形狀,凸函數無局部最優值)
代價函數:
![在這裏插入圖片描述]()
![在這裏插入圖片描述]()
代價函數:
J(θ)=m1i=1∑mCost(hθ(x(i))−y(i))
J(θ)=−m1[i=1∑my(i)log(hθ(x(i)))+(1−y(i))log(1−hθ(x(i)))]
3.優化-梯度下降算法
![在這裏插入圖片描述]()
(特徵縮放:如果特徵範圍差距很大時,可以用特徵縮放的方法,讓梯度下降收斂更快(類比線性迴歸))
其他優化算法:
![在這裏插入圖片描述]()