交叉熵在loss函數中使用的理解

相對熵(relative entropy)又稱爲KL散度(Kullback-Leibler divergence),KL距離,是兩個隨機分佈間距離的度量。記爲DKL(p||q)。它度量當真實分佈爲p時,假設分佈q的無效性。

DKL(p||q) 表示在真實分佈爲p的前提下,使用q分佈進行編碼相對於使用真實分佈p進行編碼(即最優編碼)所多出來的bit數。
這裏寫圖片描述

https://blog.csdn.net/tsyccnh/article/details/79163834
https://blog.csdn.net/rtygbwwwerr/article/details/50778098

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章