參考鏈接:https://blog.csdn.net/Biyoner/article/details/84728417
https://en.wikipedia.org/wiki/S%C3%B8rensen%E2%80%93Dice_coefficient
https://www.aiuai.cn/aifarm1159.html
評價指標參考鏈接:https://blog.csdn.net/Pierce_KK/article/details/96505691
一、Dice介紹
dice coefficient是用於評估兩個樣本的相似性的統計量,本質上是衡量兩個樣本的重疊部分。
公式:
|x|、|Y|分別表示每個集合中元素數。其中,分子中的係數 2,是因爲分母存在重複計算 X 和 Y 之間的共同元素的原因。
dice loss比較適用於樣本極度不均的情況,一般的情況下,使用 dice loss 會對反向傳播造成不利的影響,容易使訓練變得不穩定。
可以用如下公式,使Dice作爲損失函數來使用:
soft dice loss=1-DSC
二、Dice的計算
import keras.backend as K
X= K.flatten(y_true)
Y = K.flatten(y_pred)
intersection = K.sum(X * Y)
K.sum(X)
K.sum(Y)
def dice_coef(y_true, y_pred, smooth=1e-3):
y_true_f = K.flatten(y_true)
y_pred_f = K.flatten(y_pred)
intersection = K.sum(y_true_f * y_pred_f)
return K.mean((2. * intersection + smooth) / (K.sum(y_true_f) + K.sum(y_pred_f) + smooth))
其中smooth目的:防止分母爲0