論文題目: Class-Balanced Loss Based on Effective Number of Samples
論文地址: http://openaccess.thecvf.com/content_CVPR_2019/html/Cui_Class-Balanced_Loss_Based_on_Effective_Number_of_Samples_CVPR_2019_paper.html
論文發表於: CVPR 2019(CCF A類會議)
論文大體內容:
本文主要提出了一種Loss,用於解決樣本類別不均衡的數據集;
1. 常用的數據集或者常用的數據中,往往會出現某些類別數據量特別大,而某些類別數據量特別少的情況,在這種情況下如果對所有樣本都同樣看待,則會導致模型學習偏向數據量多的類別,而數據量少的類別學習得不好;
2. 本文作者提出一個“有效樣本數”的概念,因爲新來一個樣本,有一定的概率會與已有的樣本overlap,經過計算,可以得到下面的公式;
3. 從而可以得到相應的Loss function;
4. 應用到Focal Loss[1]上,可以得到下面的Loss function;
實驗
5. Dataset
Long-Tailed CIFAR;
iNaturalist;
ImageNet;
6. 實驗效果如下;
參考資料:
[1] https://blog.csdn.net/John159151/article/details/101307361
[2] https://github.com/richardaecn/class-balanced-loss
[3] https://www.toutiao.com/a6764709766112477699
以上均爲個人見解,因本人水平有限,如發現有所錯漏,敬請指出,謝謝!