分類問題中的交叉熵損失和均方損失

分類問題的損失函數

  1. 交叉熵損失(Cross Entropy Loss):假設誤差是二值分佈,可以視爲預測概率分佈和真實概率分佈的相似程度。在分類問題中有良好的應用

    CE(θ)=i=1nyilog(y^i)

    其中yi 表示真實概率分佈,只有yk=1 ,而yj=0jky^i 表示預測概率分佈,設它的輸入爲θi ,則y^i=softmax(θi)=exp(θi)jexp(θj)
  2. 均方損失(Mean Square Loss):假設誤差是正態分佈,適用於線性的輸出,特點是對於與真實結果差別越大,則懲罰力度越大,這並不適用於分類問題。

    MS(θ)=1ni=1n(yiy^i)2

    其中y^i=Wθi 表示θi 的線性輸出。

交叉熵的求導過程

由於只有yk=1 ,而yj=0jk ,則有

CE(θ)====i=1nyilog(y^i)log(y^k)log(exp(θk)jexp(θj))θk+log(jexp(θj))


CE(θ)θ=θkθ+θlog(jexp(θj))

而根據θkθk=1θkθq=0qk ,得到
θkθθilog(jexp(θj))==010exp(θi)jexp(θj)==yy^i

最終得到
CEθ=θlog(jexp(θj))θkθ=y^y
發佈了57 篇原創文章 · 獲贊 41 · 訪問量 16萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章