1.概念
邏輯斯蒂迴歸又稱爲“對數機率迴歸”,雖然名字有迴歸,但是實際上卻是一種經典的分類方法,其主要思想是:根據現有數據對分類邊界線(Decision Boundary)建立迴歸公式,以此進行分類。
2.特點
1. 優點:計算代價不高,具有可解釋性,易於實現。不僅可以預測出類別,而且可以得到近似概率預測,對許多需要利用概率輔助決策的任務很有用。
2. 缺點:容易欠擬合,分類精度可能不高。
3. 適用數據類型:數值型和標稱型數據。
3.邏輯斯蒂分佈
邏輯斯蒂分佈的分佈函數和密度函數如下:
其中,是位置參數,爲形狀參數。
邏輯斯蒂分佈在不同的、的情況下,其概率密度函數的圖形:
邏輯斯蒂分佈在不同的、的情況下,其概率分佈函數的圖形:
邏輯斯蒂分佈函數的圖形是一條S形曲線(sigmoid curve),該曲線以點爲中心對稱,即滿足:
曲線在中心附近增長速度較快,在兩端增長速度較慢。形狀參數的值越小,曲線在中心附近增長得越快。
當,時,邏輯斯蒂概率分佈函數就是我們邏輯斯蒂迴歸函數。
4.邏輯斯蒂迴歸模型
對於分類問題,我們想要一個函數能夠通過所有的輸入預測出類別。
考慮較爲簡單的二分類情況,給定一個數據集,其中, 。
從線性迴歸模型產生的預測值,爲了分類,需要將轉換爲0/1值。此時可以採用單位階躍函數進行到0/1的映射:
當預測值時,將其判爲正例;當預測值時,將其判爲負例。
但該函數不連續,爲了便於後續計算,我們希望得到一個連續可微的近似替代函數,因此我們選取了對數機率函數(logistic regression)作爲替代函數,對數機率函數是一種sigmoid函數:
(1)
這樣,就可以將任意輸入映射到區間內,實現由值到概率的轉換。爲便於討論,使,其中,此時就成爲了,就成爲了,就成爲了,代入(1)中得到:
(2)
(2)可以變換爲:
(3)
若將視爲樣本爲正例的可能性,則視爲樣本爲反例的可能性。兩者的比值稱爲“機率(odds)”,一個事件的機率就是指該事件發生的概率與該事件不發生的概率的比值,反映了作爲正例的相對可能性。對機率取對數得到對數機率(log odds,亦稱logit)。即(2)實際上是用線性迴歸模型的預測結果去逼近真實標記的對數機率。
此時,若將(2)的中視爲類後驗概率(就是說,對於樣本點的x,可以用S形函數的結果來當做該點屬於類別1的概率),則(3)可重寫爲:
(4)
顯然可以得到我們希望學得的邏輯斯蒂模型:
(5)
(6)
令,則。將(5),(6)整合稱爲一般形式,得到在已知參數和數據的情況下,爲預測值的條件概率:
(7)
將(7)連乘,得到已知參數和數據的情況下,爲預測值的條件概率。這個條件概率在數值上等於likelihood(W | X,Y),也就是在已知現有數據的條件下,W是真正參數的概率。似然函數爲:
(8)
由於乘法難解,通過取對數可以將乘法轉換爲加法,簡化計算。對數似然函數爲:
(9)
似然函數表示樣本成爲真實的概率,似然函數越大越好,此時我們可以用梯度上升法求最大值,也可以引入一個負號轉換爲梯度下降法來求解。
代價函數爲:
(10)
5. 梯度下降法求參數
邏輯斯蒂迴歸學習中通常採用的方法是梯度下降法及擬牛頓法,下面介紹邏輯斯蒂迴歸中梯度下降法求參數。
求偏導:
(11)
因此,在使用梯度下降法求解時,每次迭代地更新公式爲:
(12)
參考文獻:
1.《機器學習》第三章對數機率迴歸——周志華
2. 邏輯迴歸(logistic regression)的本質 - 極大似然估計
3. 邏輯迴歸推導