算法評價指標:準確率+精準率+召回率

評價指標:

(1)(True Postive TP): 若一個實例是正類,但是被預測成爲正類,即爲真正類

(2)(True Negative TN): 若一個實例是負類,但是被預測成爲負類,即爲真負類

(3)(False Postive FP): 若一個實例是負類,但是被預測成爲正類,即爲假正類

(4)(False Negative FN: 若一個實例是正類,但是被預測成爲負類,即爲假負類

1代表正類,0代表負類:

在這裏插入圖片描述

準確率(正確率)=所有預測正確的樣本/總的樣本 (TP+TN)/總

精確率= 將正類預測爲正類 / 所有預測爲正類 TP/(TP+FP)

召回率 = 將正類預測爲正類 / 所有正真的正類 TP/(TP+FN)

F值 = 精確率 * 召回率 * 2 / ( 精確率 + 召回率) (F 值即爲精確率和召回率的調和平均值)

在這裏插入圖片描述

1、準確率(Accuracy)

準確率(accuracy)計算公式爲:

注: 準確率是我們最常見的評價指標,而且很容易理解,就是被分對的樣本數除以所有的樣本數,通常來說,正確率越高,分類器越好。 準確率確實是一個很好很直觀的評價指標,但是有時候準確率高並不能代表一個算法就好。比如某個地區某天地震的預測,假設我們有一堆的特徵作爲地震分類的屬性,類別只有兩個:0:不發生地震、1:發生地震。一個不加思考的分類器,對每一個測試用例都將類別劃分爲0,那那麼它就可能達到99%的準確率,但真的地震來臨時,這個分類器毫無察覺,這個分類帶來的損失是巨大的。爲什麼99%的準確率的分類器卻不是我們想要的,因爲這裏數據分佈不均衡,類別1的數據太少,完全錯分類別1依然可以達到很高的準確率卻忽視了我們關注的東西。再舉個例子說明下。在正負樣本不平衡的情況下,準確率這個評價指標有很大的缺陷。比如在互聯網廣告裏面,點擊的數量是很少的,一般只有千分之幾,如果用acc,即使全部預測成負類(不點擊)acc也有 99% 以上,沒有意義。因此,單純靠準確率來評價一個算法模型是遠遠不夠科學全面的

2 、精確率(Precision):

在這裏插入圖片描述

精確率是針對預測結果而言的,表示預測爲正的樣本中有多少是真正的正樣本,預測爲正的樣本中有兩種可能:

一種是把正類預測爲正(TP),一種是把負類預測爲正(FP)

3、召回率(Recall):

在這裏插入圖片描述

召回率是針對我們原來的樣本而言,它表示樣本中的正類有多少被預測正確了,有兩種可能,一種是把原來的正類預測成正類(TP),一種是把原來的正類預測成負類(FN)

4、f1-score

P和R指標有時候會出現的矛盾的情況,這樣就需要綜合考慮他們,最常見的方法就是F-Measure(又稱爲F-Score)。 F-Measure是Precision和Recall加權調和平均:

這裏寫圖片描述

發佈了279 篇原創文章 · 獲贊 246 · 訪問量 51萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章