邏輯迴歸通過使用邏輯函數來估計概率,從而測量分類獨立變量與一個或多個非獨立變量之間的關係,而邏輯函數就是所謂的累積邏輯分佈.
從更多的數學觀點來看,邏輯迴歸比線性迴歸對數據有更加強烈的假設:
邏輯迴歸是判別模型,因此可以直接學習p(y|x):
所有的數學計算過程如下:
使用MLE或者MAP進行權值估計:
損失函數——交叉熵損失
Q: 學習率與交叉熵損失函數之間的關係是什麼?
邏輯迴歸通過使用邏輯函數來估計概率,從而測量分類獨立變量與一個或多個非獨立變量之間的關係,而邏輯函數就是所謂的累積邏輯分佈.
從更多的數學觀點來看,邏輯迴歸比線性迴歸對數據有更加強烈的假設:
邏輯迴歸是判別模型,因此可以直接學習p(y|x):
所有的數學計算過程如下:
使用MLE或者MAP進行權值估計:
損失函數——交叉熵損失
Q: 學習率與交叉熵損失函數之間的關係是什麼?