损失函数:binary_crossentropy

损失函数讲解合集

binary_crossentropy
categorical_crossentropy

概述

本文讲解的是binary_crossentropy损失函数,其实网上有些讲解把binary_crossentropycategorical_crossentropy损失函数混淆了,本文将通过数学公式+代码的形式讲解,看完这篇可以看一下categorical_crossentropy,思考它们的区别。

正文

公式分析

binary_crossentropy损失函数的公式如下(一般搭配sigmoid激活函数使用):
binary_crossentropy
根据公式我们可以发现,i∈[1,output_size] 中每个i是相互独立的,互不干扰,因此它一般用于多标签分类(yolov3的分类损失函数就是用这个),比如说我们有标签 ‘人’,‘男人’, ‘女人’ ,如果使用categorical_crossentropy,由于它的数学公式含义,标签只能是其中一个,而binary_crossentropy各个i是相互独立的,意味着是有可能出现一下这种情况:(举例)
‘人’ 标签的概率是0.9, ‘男人’ 标签概率是0.6,‘女人’ 标签概率是0.3。
那么我们有足够的说服力断定他是 ‘人’,并且很可能是 ‘男人’

代码分析

接下来我分别用tensorflow的api,以及列出详细结算过程这两种方法带大家体验一下计算。
举例1:当batch_size为1,标签总数为1,即输出shape为(1,1,1)时

使用tensorflow api计算:

import tensorflow as tf
y_true = [[[0.]]]
y_pred = [[[0.5]]]
loss = tf.keras.losses.binary_crossentropy(y_true, y_pred)
loss.numpy()
输出:
array([[0.69314694]], dtype=float32)

根据公式计算:

loss = -(1/1)*( 0*tf.math.log(0.5) +(1-0)*tf.math.log(1-0.5))
loss
输出:
<tf.Tensor: shape=(), dtype=float32, numpy=0.6931472>

可以看到它们结果一样
举例2:当batch_size为1,标签总数为4,即输出shape为(1,1,4)时

使用tensorflow api计算:

import tensorflow as tf
y_true = [[[0.,1,0.,1]]]#这里设两个标签
y_pred = [[[0.5,0.8,0.3,0.5]]]
loss = tf.keras.losses.binary_crossentropy(y_true, y_pred)
loss.numpy()
输出:
array([[0.49152803]], dtype=float32)

根据公式计算:

loss = -(1/4)*( (0*tf.math.log(0.5) +(1-0)*tf.math.log(1-0.5)) + 
                (1*tf.math.log(0.8) +(1-1)*tf.math.log(1-0.8)) +
                (0*tf.math.log(0.3) +(1-0)*tf.math.log(1-0.3)) +
                (1*tf.math.log(0.5) +(1-1)*tf.math.log(1-0.5)) )
loss
输出:
<tf.Tensor: shape=(), dtype=float32, numpy=0.4915282>

可以看到它们结果一样

MORE

binary_crossentropy
categorical_crossentropy

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章