理解最大熵模型

最大熵模型與邏輯斯蒂迴歸模型一樣,屬於對數線性模型,因爲推導出的最大熵模型公式滿足輸入與輸出的對數函數成線性關係,如下:

Pw(Y|X)=1Zw(x)exp(ni=1wifi(x,y))

其中,

Zw(x)=yexp(ni=1wifi(x,y))

1、最大熵原理
將最大熵原理使用到具體的應用模型中,就得到了最大熵模型。所以,要了解最大熵模型,首先需要知道最大熵原理。

最大熵原理要求在概率分佈中,將使得熵最大的概率分佈作爲最好的選擇。所謂熵,可以理解爲系統的不確定程度。熵越大,系統的不確定程度就越高。比如在擲骰子游戲中,在條件未知的情況下,因爲無法知道具體是哪一面,其不確定程度程度最高,即熵最大;當加入可能是兩點或四點條件後,其不確定性就降低了,因爲只有兩個選擇可以選,這時的熵也就變小了。

下面給出熵的定義:
假設離散隨機變量X的概率分佈是P(X),則定義熵H(P)爲:

H(P)=-xP(x)logP(x)

由熵的定義可知:

0H(P)log|X|

式中|X|表示變量X的取值個數。不等式左側顯然成立,右側證明如下:
H(P)log|X|=xP(x)log1P(x)xP(x)log|X|
=xP(x)log1|X|P(x)
由不等式log x≤x-1,上式可變爲:
xP(x)(1|X|P(x)1)
=x(1|X|P(x))
=x1|X|1
=0
不等式成立當且僅當:

1|X|P(x)=1

即:

P(x)=1|X|

此時,X滿足均勻分佈,也就是說當X服從均勻分佈時,熵最大。

直觀地,最大熵原理要求選擇的概率模型必須滿足已有事實,而對未知事實不做任何主觀假設,也即認爲未知事實是等可能的。這個等可能性在最大熵原理中用熵的最大化來度量,用一個例子來說明如下:
假設隨機變量X有5個取值{x1,x2,x3,x4,x5 },要估計出取這五個值的概率P(x1),P(x2),P(x3),P(x4),P(x5)
首先,概率值應滿足約束條件:

5i=0P(xi)=1

滿足約束條件的概率值有無窮多組,我們在不知道其他信息的情況下,認爲其等可能地其服從均勻分佈,即:

P(x1)=P(x2)=P(x3)=P(x4)=P(x5)=15

這個時候得出的概率分佈的熵也是最大的。
若我們根據一些先驗知識得知,

P(x1)+P(x2)=25

那麼,根據 最大熵原理,首先我們要滿足所有約束條件:

5i=0P(xi)=1
P(x1)+P(x2)=25

在滿足以上條件情況下,認爲未知情況服從均勻分佈,即:

P(x3)=P(x4)=P(x5)=15

這就是用最大熵原理來得出概率分佈的方法。

2、最大熵模型
最大熵模型是對最大熵原理的應用。
假設分類模型爲條件概率分佈P(Y|X),X表示輸入,Y表示輸出。在給定一組訓練數據

T=(x1,y1),(x2,y2),...,(xn,yn)

的情況下,學習目標是用最大熵原理選擇最好的分類模型。
在給定訓練數據集的情況下,聯合概率分佈P(X,Y)和邊緣概率分佈P(X)的經驗分佈都可以確定:

P˜(X=x,Y=y)=ν(X=x,Y=y)N
P˜(X=x)=ν(X=x)N

其中ν 表示訓練樣本中出現的頻數,N表示樣本總量。
根據最大熵原理,首先要考慮滿足已有約束條件。這裏我們引入特徵函數f(x,y)來表示對模型條件的約束,如下:

f(x,y)={10,xy滿

f(x,y) 表示輸入與輸出是否滿足某一事實,這裏的事實表示對模型的約束事實,如上例中(x1,y1),(x2,y2)滿

P(x1)+P(x2)=25

則,f(x1,y1)=1,f(x2,y2)=1
有了特徵函數,我們給出特徵函數f(x,y) 關於經驗分佈P˜(X,Y) 的期望值Ep˜(f) ,

Ep˜(f)=x,yP˜(x,y)f(x,y)

特徵函數f(x,y) 關於模型P(Y|X)和經驗分佈P˜(X) 的期望值Ep(f) ,

Ep(f)=x,yP˜(x)P(y|x)f(x,y)

在給定數據集足夠大的情況下,這兩個期望值應該是相等的,即:

Ep˜(f)=Ep¯(f)

該等式將概率模型需要滿足的約束條件形式化表示。

在滿足約束條件的情況下,我們給出最大熵模型的定義:
假設滿足所有約束條件的模型集合爲:

C{PP|Ep˜(fi)=Ep¯(fi),i=1,2,...,n}

定義在條件概率分佈P(Y|X)上的條件熵爲

H(P)=x,yP˜(x)P(y|x)logP(y|x)

稱滿足模型集合C中條件熵最大的模型爲最大熵模型。

3、模型的學習
與支持向量機一樣,最大熵模型也是一個有約束的目標最優問題。
對於給定訓練數據集T=(x1,y1),(x2,y2),...,(xn,yn) 及特徵函數fi(x,y),i=1,2,...,n ,最大熵模型的目標問題如下:

maxPCH(P)=x,yP˜(x)P(y|x)logP(y|x)

s.t.Ep˜(f)=Ep(f)
yP(y|x)=1
將其寫成等價的求最小值問題:

minPCH(P)=x,yP˜(x)P(y|x)logP(y|x)

s.t.Ep˜(f)Ep(f)=0
yP(y|x)=1
根據前面介紹的支持向量機模型經驗,引入拉格朗日函數,將約束目標問題轉換爲無約束目標優化問題,並求其對偶問題,解得:

Pw(Y|X)=1Zw(x)exp(ni=1wifi(x,y))

其中,

Zw(x)=yexp(ni=1wifi(x,y))

即得出了開篇我們提到的最大熵模型公式,可以看出其是一個對數線性模型。

4、最大熵模型的學習算法
支持向量機的學習算法爲最小序列最優化(SEO)算法,最大熵模型因爲可以歸結爲以似然函數爲目標函數的最優化問題,一些求解最優化的方法都可以拿來使用,如改進的迭代尺度算法(IIS)、牛頓法、擬牛頓法等,希望在接下來繼續介紹這些學習算法。

發佈了50 篇原創文章 · 獲贊 229 · 訪問量 63萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章