softmax交叉熵爲什麼要取"-log"
#######################################################################################
如圖:-log是遞減函數,對應着 錯誤越大包含信息越多,越正確包含信息越少,所以給錯的比例越大。
而softmax之後,全部在【0,1】之間,越接近1,比例接近0;越接近1,比例無限大。從而可以學習正確的東西。
softmax交叉熵爲什麼要取"-log"
#######################################################################################
如圖:-log是遞減函數,對應着 錯誤越大包含信息越多,越正確包含信息越少,所以給錯的比例越大。
而softmax之後,全部在【0,1】之間,越接近1,比例接近0;越接近1,比例無限大。從而可以學習正確的東西。