負對數似然(negative log-likelihood)

negative log likelihood

似然函數(likelihood function)

Overview

在機器學習中,似然函數是一種關於模型中參數的函數。“似然性(likelihood)”和"概率(probability)"詞意相似,但在統計學中它們有着完全不同的含義:概率用於在已知參數的情況下,預測接下來的觀測結果;似然性用於根據一些觀測結果,估計給定模型的參數可能值。

Probability is used to describe the plausibility of some data, given a value for the parameter. Likelihood is used to describe the plausibility of a value for the parameter, given some data.

​ —from wikipedia[3]^[3]

其數學形式表示爲:

假設XX是觀測結果序列,它的概率分佈fxf_{x}依賴於參數θ\theta,則似然函數表示爲

L(θx)=fθ(x)=Pθ(X=x)L(\theta|x)=f_{\theta}(x)=P_{\theta}(X=x)

Definition

似然函數針對**離散型概率分佈(Discrete probability distributions)連續型概率分佈(Continuous probability distributions)**的定義通常不同.

離散型概率分佈(Discrete probability distributions)

假設XX是離散隨機變量,其概率質量函數pp依賴於參數θ\theta,則有

L(θx)=pθ(x)=Pθ(X=x)L(\theta|x)=p_{\theta}(x)=P_{\theta}(X=x)

L(θx)L(\theta|x)爲參數θ\theta的似然函數,xx爲隨機變量XX的輸出.

Sometimes the probability of "the value of for the parameter value " is written as P(X = x | θ) or P(X = x; θ).

連續型概率分佈(Continuous probability distributions)

假設XX是連續概率分佈的隨機變量,其密度函數(density function)ff依賴於參數θ\theta,則有

L(θx)=fθ(x)L(\theta|x)=f_{\theta}(x)

最大似然估計(Maximum Likelihood Estimation,MLE)

假設每個觀測結果xx是獨立同分布的,通過似然函數L(θx)L(\theta|x)求使觀測結果XX發生的概率最大的參數θ\theta,即argmaxθf(X;θ)argmax_{\theta}f(X;\theta)

在“模型已定,參數未知”的情況下,使用最大似然估計算法學習參數是比較普遍的。

對數似然(log likelihood)

由於對數函數具有單調遞增的特點,對數函數和似然函數具有同一個最大值點。取對數是爲了方便計算極大似然估計,MLE中直接求導比價困難,通常先取對數再求導,找到極值點。

負對數似然(negative log-likelihood)

實踐中,softmax函數通常和負對數似然(negative log-likelihood,NLL)一起使用,這個損失函數非常有趣,如果我們將其與softmax的行爲相關聯起來一起理解.首先,讓我們寫下我們的損失函數:

L(y)=log(y)L(y)=-log(y)

回想一下,當我們訓練一個模型時,我們渴望能夠找到使得損失函數最小的一組參數(在一個神經網絡中,參數指權重weights和偏移biases).

因此假如我們將負對數似然(negative log-likelihood)作爲我們的損失函數,模型的效果如何呢?讓我們嘗試畫出它的範圍:
在這裏插入圖片描述
最大似然估計的一般步驟如下:
(1) 寫出似然函數;
(2) 對似然函數取對數,得到對數似然函數;
(3) 求對數似然函數的關於參數組的偏導數,並令其爲0,得到似然方程組;
(4) 解似然方程組,得到參數組的值.

Reference

[1]王海良,李卓恆,林旭鳴.智能問答與深度學習[M].北京:電子工業出版社,2019:19-20.

[2]Lj Miranda.Understanding softmax and the negative log-likelihood.2017.

​ [link]https://ljvmiranda921.github.io/notebook/2017/08/13/softmax-and-the-negative-log-likelihood/

[3]wikipedia-likelihood function

​ [link]https://en.wikipedia.org/wiki/Likelihood_function#Log-likelihood

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章