幾句話之邏輯迴歸和Softmax迴歸

邏輯迴歸

用sigmoid函數,把線性迴歸的結果進行壓縮,壓縮到0~1之間。
然後,把壓縮結果和分類輸出y(假設是0和1)對應起來:壓縮結果>0.5,y爲1;壓縮結果<0.5,y爲0。
這樣就相當於得到了概率函數,有了概率函數,就能寫出似然函數。
當然了,爲了得到模型的一般形式,必然要引入一些模型參數。

求這些模型參數,就用老辦法:

  1. 寫出似然函數
  2. 把似然函數加負號,轉爲損失函數
  3. 梯度下降求參數
    PS:
    似然函數求極值是求最大值,只能用求導方式求,不好算。
    所以加上符號,用梯度下降或牛頓法求(梯度下降是求最小值的)。

Softmax迴歸

Softmax迴歸是處理多分類問題的,邏輯迴歸是處理二分類的。
Softmax迴歸也是一樣的套路,壓縮==》得到概率函數==》寫出似然函數==》轉爲損失函數==》梯度下降求參數

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章