支持向量機(SVM)與邏輯迴歸(LR)對比

相同:
1.本質都是線性分類器,都是要求一個最佳分類的超平面
2.都是監督模型
3.都是判別模型 判別模型有:KNN,SVL,LR, 生成模型:樸素貝葉斯, 馬爾可夫

不同點:
1.損失函數不同,lr是交叉熵損失,SVM合頁損失函數
2.SVM考慮分類邊界線附近的樣本(決定分類超平面的樣本)。在支持向量外添加或減少任何樣本點對分類決策面沒有任何影響;
LR受所有數據點的影響。直接依賴數據分佈,每個樣本點都會影響決策面的結果。
3.SVM需要做歸一化,因爲SVM是依賴於距離表達的度量,LR需要做歸一化是因爲梯度下降需要提速。
4.SVM使用核函數,而邏輯迴歸不使用核函數,因爲如果邏輯迴歸使用核函數,則每個樣本點都有進行覈計算,計算量會很大
5.SVM的損失函數就自帶正則,而 LR 必須另外在損失函數之外添加正則項

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章