邏輯迴歸解決多分類問題

傳統的邏輯迴歸只能處理二分類問題,對於多分類任務,主要有如下兩種方案。

第一種方式:從類別入手

1、OVO(one vs one)

某個分類算法有N類,將某一類和另一類比較作爲二分類問題,總共可分爲cn2c_{n}^{2}種不同的二分類模型,給定一個新的樣本點,求出每種二分類對應的概率,概率最高的一類作爲新樣本的預測結果。

2、OVR(One Vs Rest)

某個分類算法有N類,將某一類和剩餘的類比較作爲二分類問題,N個類別進行N次分類,得到N個二分類模型,給定一個新的樣本點,求出每種二分類對應的概率,概率最高的一類作爲新樣本的預測結果。

第二種方法:從算法入手

第二種方式是修改logistic迴歸的損失函數,讓其適應多分類問題。這個損失函數不再籠統地只考慮二分類非1就0的損失,而是具體考慮每個樣本標記的損失。這種方法叫做softmax迴歸,即logistic迴歸的多分類版本。

關於softmax請自行百度。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章