-
基本方法
對於數據集T={(xi,yi)}i=1N,由獨立同分布的P(X,Y)產生,樸素貝葉斯通過訓練集學習聯合概率分佈P(X,Y),具體的,學習以下的先驗概率分佈和條件概率分佈得到,值得注意的是x1和x(1)是不一樣的,x1值得是第一個樣本的數據,x(1)指的是特徵集中的第一個特徵,
P(Y=ck)k=1,2,...,K
P(X=x/Y=ck)=P(X(1)=x(1),X(2)=x(2),...,X(n)=x(n)/Y=ck)k=1,2,...,K
於是得到聯合分佈概率P(X,Y),
而樸素貝葉斯驚醒了一個對條件概率分佈的條件獨立性假設,如下,
P(X(i)=x(i)/Y)=P(X(j)=x(j)/Y,X(i)=x(i))
即特徵X(i)對於特徵X(j)關於Y是相互獨立的,但是特徵之間有可能不獨立,
P(X=x/Y=ck)=P(X(1)=x(1),X(2)=x(2),...,X(n)=x(n)/Y=ck)k=1,2,...,K
=j=1∏nP(X(j)=x(j)/Y=ck)k=1,2,...,K(1)
而對於如何求解P(X(j)=x(j)/Y=ck),下文會講述,
這時我們已經把每一項P(X(j)=x(j)/Y=ck)求解出來,這是其實我們已經把聯合概率分佈求解出來了,如果還要繼續求解後驗概率的話,而後根據貝葉斯公式,後驗概率如下所示,
P(Y=ck/X=x)=∑kP(X=x/Y=ck)P(Y=ck)P(X=x/Y=ck)P(Y=ck)
把(1)式帶入上述公式得
P(Y=ck/X=x)=∑kP(Y=ck)∏j=1nP(X(j)=x(j)/Y=ck)P(Y=ck)∏j=1nP(X(j)=x(j)/Y=ck)
而當一個未知的xu送入到模型中,得到的結果如下,
y=f(xu)=argmaxck∑kP(Y=ck)∏j=1nP(X(j)=xu(j)/Y=ck)P(Y=ck)∏j=1nP(X(j)=xu(j)/Y=ck)
而對於所有的式子來說,上式的分母都是相同的,因而上式可簡化爲如下,
y=f(xu)=argmaxckP(Y=ck)j=1∏nP(X(j)=xu(j)/Y=ck)
-
後驗概率最大含義
樸素貝葉斯法將實例分到後驗概率最大的類中,其實等價於期望風險最小化,從這一點可以看出樸素貝葉斯法其實是站在僞上帝的視角來考慮問題的,即現在我們就認爲訓練集中包含所有的可能數據,因而求出的風險就是期望風險,而不是經驗風險,
這裏統計學習方法的第49頁有詳細推導過程,這裏只想提一點就是樸素貝葉斯用到的是0-1損失函數,
L(y,f(x))={1,Y=f(X)0,Y=f(X)
而且注意條件數學期望的理解,
-
算法說明
輸入:訓練數據T={(xi,yi)}i=1N, 其中xi=(xi(1),xi(2),...,xi(n))T,其中xi(j)∈{aj1,aj2,...,ajSj},j=1,2,...,n, l=1,2,...,Sj, yi∈{c1,c2,...,ck}, 實例x,
輸出:實例x的分類結果,
- 計算先驗概率及條件概率
P(Y=ck)=N∑i=1N1(yi=ck),k=1,2...,K
P(X(j)/Y=ck)=∑i=1N1(yi=ck)∑i=1N1(xi(j)=ajl,yi=ck)
j=1,2,...,nl=1,2,...,Sjk=1,2...,K
- 對於給定的x=(x(1),x(2),...,x(n))T,計算
P(Y=ck)j=1∏nP(X(j)=x(j)/Y=ck)k=1,2,...,K
- 確定x的分類
y=f(x)=argmaxckP(Y=ck)j=1∏nP(X(j)=x(j)/Y=ck)
-
貝葉斯估計
極大似然估計可能產生概率爲0的情況,因而引入了貝葉斯估計,用如下式子矯正,
Pλ(X(j)/Y=ck)=∑i=1N1(yi=ck)+Sjλ∑i=1N1(xi(j)=ajl,yi=ck)+λ
等價於給隨機變量的各個取值的頻數上添加一個整數λ, 當λ=0時爲極大似然估計,當其爲1時,叫做拉普拉斯平滑,而先驗概率的貝葉斯估計爲
Pλ(Y=ck)=N+Kλ∑i=1N1(yi=ck)+λ,k=1,2...,K