機器學習常用算法:Logistic Regression

邏輯斯諦分佈

X 是連續隨機變量,X 服從邏輯斯諦分佈是指X 具有下列分佈函數和密度函數:
分佈函數

F(x)=P(Xx)=11+e(xμ)/γ

密度函數
f(x)=F(x)=e(xμ)/γγ(1+e(xμ)/γ)2

式中,μ 爲位置參數,γ 爲形狀參數。
其分佈函數是S形函數,其特點是當x趨於無窮大時,概率值趨於1;當x趨於無窮小時,概率值趨於0.

邏輯斯諦迴歸模型

邏輯斯諦迴歸模型是由以下條件概率分佈表示的分類模型,可用於二類或多類分類。

P(Y=k|x)=exp(wkx)1+i=1K1exp(wkx),k=1,2,...,K1

P(Y=K|x)=11+i=1K1exp(wkx)

式中,x 爲輸入特徵,w 爲特徵的權值向量。

邏輯斯諦迴歸比較兩個條件概率值的大小,將實例x 分到概率值較大的那一類。

補充:
機率:一個事件的機率是指該事件發生的概率與該事件不發生的概率的比值。如果事件發生的概率爲p,那麼該事件的機率爲p1p ,該事件的對數機率是

logit(p)=logp1p

在邏輯斯諦迴歸模型中,輸出Y=1的對數機率爲

logit(P(Y=1|x))=logP(Y=1|x)1P(Y=1|x)=wx

即輸出Y=1的對數機率是由輸入x的線性函數表示的模型

模型參數估計

對於給定的訓練集T={(x1,y1),(x2,y2),...,(xN,yN)} ,其中,xinyi{0,1} 。可以應用極大似然估計法估計模型參數w ,從而得到邏輯斯諦迴歸模型。
設:P(Y=1|x)=π(x) , P(Y=0|x)=1π(x)
其似然函數爲

i=1N[π(xi)]yi[1π(xi)]1yi

其對數似然函數爲
L(w)=i=1N[yilogπ(xi)+(1yi)log(1π(xi))]=i=1N[yilogπ(xi)1π(xi)+log(1π(xi))]=i=1N[yi(wxi)log(1+exp(wxi))]

L(w) 求極大值,即問題轉變爲以對數似然函數爲目標函數的最優化問題,通常採用梯度下降法或擬牛頓法可得到w 的估計值w^ ,則學習到的邏輯斯諦迴歸模型爲

P(Y=1|x)=exp(w^x)1+exp(w^x)

P(Y=0|x)=11+exp(w^x)

結論

應用場景:
二分類問題:
郵件:垃圾郵件/非垃圾郵件
在線交易:是否欺詐(是/否)
腫瘤:惡性/良性

多分類問題:
電子郵件分類/標註: 工作郵件,朋友郵件,家庭郵件,愛好郵件
醫療圖表(medical diagrams): 沒有生病,着涼,流感
天氣:晴天,多雲,雨,雪

logistic迴歸一般用於類別之前有聯繫的多分類問題
類別之間互斥則一般選擇softmax迴歸

優點:
1.實現簡單
2.分類時計算量非常小,速度很快,存儲資源低;

缺點:
1.容易欠擬合,一般準確度不太高
2.必須線性可分;

參考資料

Coursera公開課筆記: 斯坦福大學機器學習第六課“邏輯迴歸(Logistic Regression)”
統計學習方法,李航著,清華大學出版社

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章