備忘:區分tensorflow中幾種cross_entropy函數

# A logit (also called a score) is a raw unscaled value associated with a class.
# 多分類問題 輸入標籤需要Onehot編碼 輸出logits向量
tf.nn.softmax_cross_entropy_with_logits
# 多分類問題 輸入標籤不必Onehot編碼 輸出logits向量
tf.nn.sparse_softmax_cross_entropy_with_logits

# 多分類問題 輸入標籤需要Onehot編碼 輸出loss值
tf.losses.softmax_cross_entropy
# 多分類問題 輸入標籤不必Onehot編碼 輸出loss值
tf.losses.sparse_softmax_cross_entropy

# DEPRECATED
tf.contrib.losses.softmax_cross_entropy
tf.conbrib.losses.sparse_softmax_cross_entropy

# 關係
tf.losses.softmax_cross_entropy = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits)
# 有權重
tf.losses.softmax_cross_entropy(weight=W) = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits*W)

# The sigmoid is a partial case of the softmax function
# 二分類
tf.nn.sigmoid_cross_entropy_with_logits
tf.nn.weighted_cross_entropy_with_logits(labels, logits, pos_weight, name=None)
tf.losses.sigmoid_cross_entropy
tf.contrib.losses.sigmoid_cross_entropy(DEPRECATED)

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章