交叉熵相關理論網上好多,這篇只記錄一下在分割中怎麼用torch.nn.BCELoss 和torch.nn.CrossEntropyLoss,也方便自己以後使用。
1、二分類用nn.BCELoss
output:
定義: 網絡的輸出
數值: 需要經過sigmoid()函數歸一化到[0,1]
shape: [bs,*] # *表示長寬高等任意維度
target:
定義: 標籤
數值: 0或者1
shape: [bs,*], 與output相同
loss_func = nn.BCELoss() #定義交叉熵損失函數
loss = loss_func(output, target) #計算loss
資料參考:https://pytorch.org/docs/master/nn.html#bceloss
2、多分類用nn.
CrossEntropyLoss
output:
定義: 網絡的輸出
數值: 任意範圍, 不需要添加softmax(), sigmoid() 或者 argmax()等函數。
shape: [bs, C,*] # C表示類別數, *表示長寬高等任意維度
target:
定義: 標籤
數值: 0,1,..., C-1. #如4分類,則數值爲0,1,2,3
shape: [bs,*], #比output少了通道維,不需要轉爲onehot類型
loss_func = nn.CrossEntropyLoss() #定義損失函數
output = loss_func(output, target) #計算loss
資料參考: https://pytorch.org/docs/master/nn.html#crossentropyloss
ps:加權暫時未嘗試,以後補充,上爲個人用法,如有錯誤請多指教。