傳統的邏輯迴歸只能處理二分類問題,對於多分類任務,主要有如下兩種方案。
第一種方式:從類別入手
1、OVO(one vs one)
某個分類算法有N類,將某一類和另一類比較作爲二分類問題,總共可分爲種不同的二分類模型,給定一個新的樣本點,求出每種二分類對應的概率,概率最高的一類作爲新樣本的預測結果。
2、OVR(One Vs Rest)
某個分類算法有N類,將某一類和剩餘的類比較作爲二分類問題,N個類別進行N次分類,得到N個二分類模型,給定一個新的樣本點,求出每種二分類對應的概率,概率最高的一類作爲新樣本的預測結果。
第二種方法:從算法入手
第二種方式是修改logistic迴歸的損失函數,讓其適應多分類問題。這個損失函數不再籠統地只考慮二分類非1就0的損失,而是具體考慮每個樣本標記的損失。這種方法叫做softmax迴歸,即logistic迴歸的多分類版本。
關於softmax請自行百度。