Logistic Regression邏輯迴歸的一些知識點

關於Logistic Regression的一些知識點:

  1. 爲什麼損失函數不用平方誤差:
    L=12mim(y^y)2L = \frac{1}{2m}\sum_i^m(\hat{y}-y)^2
    答:這樣的損失函數不是凸的,梯度下降法會陷入局部最小值。
    在這裏插入圖片描述
    二分類問題的損失函數:
    L=1mim(ylogy^+(1y)log(1y^))L = -\frac{1}{m}\sum_i^m(y\log\hat{y}+(1-y)\log(1-\hat{y}))
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章