pytorch交叉熵使用方法

交叉熵相關理論網上好多,這篇只記錄一下在分割中怎麼用torch.nn.BCELoss 和torch.nn.CrossEntropyLoss,也方便自己以後使用。

1、二分類用nn.BCELoss


output:

    定義:  網絡的輸出 
    數值:  需要經過sigmoid()函數歸一化到[0,1]
    shape:  [bs,*]          #   *表示長寬高等任意維度
target: 

    定義:  標籤
    數值:  0或者1 
    shape:  [bs,*], 與output相同
 

loss_func = nn.BCELoss()   #定義交叉熵損失函數
loss = loss_func(output, target)   #計算loss

資料參考:https://pytorch.org/docs/master/nn.html#bceloss

2、多分類用nn.CrossEntropyLoss

 

output:

    定義:  網絡的輸出 
    數值:  任意範圍, 不需要添加softmax(), sigmoid() 或者 argmax()等函數。 
    shape:  [bs, C,*]            # C表示類別數, *表示長寬高等任意維度
target: 

    定義:  標籤
    數值:  0,1,..., C-1.          #如4分類,則數值爲0,1,2,3
    shape:  [bs,*],                  #比output少了通道維,不需要轉爲onehot類型

loss_func = nn.CrossEntropyLoss()     #定義損失函數
output = loss_func(output, target)     #計算loss

資料參考: https://pytorch.org/docs/master/nn.html#crossentropyloss

 

ps:加權暫時未嘗試,以後補充,上爲個人用法,如有錯誤請多指教。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章