邏輯迴歸
用sigmoid函數,把線性迴歸的結果進行壓縮,壓縮到0~1之間。
然後,把壓縮結果和分類輸出y(假設是0和1)對應起來:壓縮結果>0.5,y爲1;壓縮結果<0.5,y爲0。
這樣就相當於得到了概率函數,有了概率函數,就能寫出似然函數。
當然了,爲了得到模型的一般形式,必然要引入一些模型參數。
求這些模型參數,就用老辦法:
- 寫出似然函數
- 把似然函數加負號,轉爲損失函數
- 梯度下降求參數
PS:
似然函數求極值是求最大值,只能用求導方式求,不好算。
所以加上符號,用梯度下降或牛頓法求(梯度下降是求最小值的)。
Softmax迴歸
Softmax迴歸是處理多分類問題的,邏輯迴歸是處理二分類的。
Softmax迴歸也是一樣的套路,壓縮==》得到概率函數==》寫出似然函數==》轉爲損失函數==》梯度下降求參數