本內容主要介紹概率論與統計學相關基礎知識,主要涉及 聯合概率、邊緣概率和條件概率;貝葉斯公式、先驗概率、後驗概率和似然函數;最大似然估計、最大後驗概率估計和貝葉斯估計 等。爲機器學習中的貝葉斯分類提供相關基礎知識。
一、基礎知識
1.1 概率與統計
概率論(Probability) 和 統計學(Statistics)看似兩個相近的概念,其實研究的問題剛好相反。概率論 是集中研究概率及隨機現象的數學分支,是研究隨機性或不確定性等現象的數學。統計學 是在數據分析的基礎上,研究如何測定、收集、整理、歸納和分析反映數據,以便給出正確消息的科學。
概率論是給定條件(已知模型和參數)下,對要發生的事件(新輸入數據)的預測。統計推斷是在給定數據(訓練數據)下,對數據生成方式(模型和參數)的歸納總結。簡單地說,概率論是已知模型和參數,推數據;統計學是已知數據,推模型和參數。概率論是統計學的數學基礎,統計學是對概率論的應用。
1.2 聯合概率、邊緣概率和條件概率
假設有隨機變量 X 和 Y,此時, P(X=a,Y=b) 用於表示 X=a 且 Y=b 的概率。這類包含多個條件且所有條件同時成立的概率稱爲 聯合概率。我們也可以使用 P(a,b) 或 P(ab) 表示聯合概率。
1.2.1 邊緣概率
邊緣概率是與聯合概率對應的,P(X=a) 或 P(Y=b),這類僅與單個隨機變量有關的概率稱爲 邊緣概率。
1.2.2 條件概率
條件概率 表示在條件 Y=b 成立的情況下,X=a 的概率,記作 P(X=a∣Y=b)。它具有如下性質:在條件 Y=b 下 X 的條件分佈,也是一種 X 的概率分佈,因此窮舉 X 的可取值之後,所有這些值對應的概率之和爲 1,即 ∑aP(X=a∣Y=b)=1。
1.2.3 聯合概率與邊緣概率的關係
P(X=a)=b∑P(X=a,Y=b)(1)
P(Y=b)=a∑P(X=a,Y=b)(2)
1.2.4 聯合概率、邊緣概率與條件概率之間的關係
P(X=a,Y=b)=P(X=a∣Y=b)P(Y=b)=P(Y=b∣X=a)P(X=a)(3)
P(X=a∣Y=b)=P(Y=b)P(X=a,Y=b)(4)
1.3 全概率公式
假設隨機變量 X 的所有可能取值爲 (a1,a2,⋯,an),它們構成一個完備事件組,即它們兩兩互斥,其和爲全集;並且 P(X=ai) 大於 0,則對任意事件 Y=b 有
P(Y=b)=P(Y=b∣X=a1)P(X=a1)+⋯+P(Y=b∣X=an)P(X=an)=i=1∑nP(Y=b∣X=ai)P(X=ai)(5)
上面的公式稱爲 全概率公式。它將對複雜事件 Y=b 的概率問題 轉化爲在不同情況下發生的簡單事件的概率的求和問題 。
1.4 貝葉斯公式
P(Y∣X)=P(X)P(X∣Y)P(Y)(6)
上面的公式稱爲 貝葉斯公式,也叫做 貝葉斯定理 或 貝葉斯法則。
1.5 先驗概率、後驗概率和似然函數
先驗概率(Prior Probability)是指根據以往經驗和分析得到的概率。
後驗概率(Posterior Probability)是指在得到 “結果” 的信息後重新修正的概率。
在統計學中,似然函數(Likelihood Function)是一種關於統計模型參數的函數。給定輸出 X 時,關於參數 θ 的似然函數 L(θ∣X) (在數值上)等於給定參數 θ 後變量 X 的概率:L(θ∣X)=P(X∣θ)。
二、概率模型參數估計方法
假如我們現在有一組觀測數據(即數據集,樣本),並且我們知道它們是從某一種分佈中隨機取出來的,但是我們並不知道這個分佈的具體參數,即 “模型已定,參數未知”。那我們應該如何去估計參數呢?
對於參數估計,統計學界的兩個學派分別提供了不同的解決方案:頻率學派 認爲參數雖然未知,但卻是客觀存在的固定值,因此,可通過優化似然函數等準則來確定參數值;貝葉斯學派 則認爲參數是未觀察到的隨機變量,其本身也可有分佈,因此,可假定參數服從一個先驗分佈,然後基於觀測到的數據來計算參數的後驗分佈。
下面將介紹三種概率模型參數估計方法,分別爲 源自頻率學派的最大似然估計,以及源自貝葉斯學派的最大後驗概率估計和貝葉斯估計。
2.1 最大似然估計
最大似然估計(Maximum Likelihood Estimation,MLE,也叫極大似然估計)是建立在極大似然原理的基礎上的一個統計方法,是概率論在統計學中的應用。其核心思想是:認爲當前發生的事件(即觀測數據)是概率最大的事件,則使得當前發生的事件發生概率最大的參數就是最好的參數。
在最大似然估計中,認爲參數爲固定的值,只是其值未知;然後基於觀測數據,通過最大化似然函數來求解參數。
注意:對一個獨立同分布的數據集來說,總體的似然就是每個樣本似然的乘積。
2.1.1 示例一:二項分佈的最大似然估計(拋硬幣)
針對拋硬幣的例子,拋 10 次的結果爲:0,0,0,1,0,0,0,1,0,0,,其中正面朝上爲 1,反面朝上爲 0,求這個硬幣正面朝上的概率是多大?
我們知道每次拋硬幣都是一次二項分佈,設正面朝上的概率爲 θ,那麼似然函數爲:
L(X;θ)=i=1∏nP(xi,θ)=i=1∏nθxi(1−θ)1−xi(7)
其中,正面朝上時,xi=1;反面朝上時,xi=0。
爲了求解方便,我們通常會將似然函數轉成對數似然函數,然後再求解(可以轉成對數似然函數的主要原因是對數函數並不影響函數的凹凸性。)。則有
lnL(X;θ)=lni=1∏nθxi(1−θ)1−xi=i=1∑nln(θxi(1−θ)1−xi)=i=1∑n(lnθxi+ln(1−θ)1−xi)=i=1∑n(xilnθ+(1−xi)ln(1−θ))(8)
對其求導,得
∂θ∂lnL(X;θ)=i=1∑n∂θ∂(xilnθ+(1−xi)ln(1−θ))=i=1∑nxi∂θ∂lnθ+i=1∑n(1−xi)∂θ∂ln(1−θ)=θ1i=1∑nxi−1−θ1i=1∑n(1−xi)(9)
令導數爲 0,可求得
θ^=n1i=1∑nxi(10)
將上面的觀測數據代入,可求得 θ^=0.2。
2.1.2 實例二:正態分佈的最大似然估計
假設樣本服從正態分佈 N (μ,σ2),則其似然函數爲
L(μ,σ2)=i=1∏n2πσ1e−2σ2(xi−μ)2(11)
對其求對數得
lnL(μ,σ2)=i=1∑nln2πσ1e−2σ2(xi−μ)2=i=1∑nln2πσ1−i=1∑n2σ2(xi−μ)2=i=1∑nln2π1+i=1∑nlnσ1−i=1∑n2σ2(xi−μ)2=nln2π1−2nlnσ2−2σ21i=1∑n(xi−μ)2(12)
分別對 μ,σ2 求偏導,並令偏導數爲 0,得
⎩⎪⎪⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎪⎪⎧∂μ∂lnL(μ,σ2)=σ21i=1∑n(xi−μ)=σ21(i=1∑nxi−nμ)=0∂σ2∂lnL(μ,σ2)=−2σ2n+2σ41i=1∑n(xi−μ)2=0(13)
求得
⎩⎪⎪⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎪⎪⎧μ^=n1i=1∑nxi=xˉσ2^=n1i=1∑n(xi−xˉ)2(14)
2.1.3 求解步驟
最大似然估計的求解步驟:
-
確定似然函數。
-
將似然函數轉換爲對數似然函數。
-
求導數,並令其爲 0。
-
求解得到模型中參數的最優值。
極大似然估計只關注當前的觀測數據,也就是隻關注當前發生的事件,不考慮事件的先驗情況。由於計算簡單,而且不需要關注先驗知識,因此在機器學習中的應用非常廣,最常見的就是 Logistic 迴歸。
2.2 最大後驗概率估計
在最大似然估計中,是求使似然函數最大的參數。現在問題稍微複雜一點點,假如這個參數有一個先驗概率呢?比如,上面的拋硬幣的例子,我們的經驗告訴我們,硬幣一般都是勻稱的,也就是 θ=0.5 的概率最大,θ=0.2 的概率比較小。這個時候我們應該怎麼估計參數呢?這就是 最大後驗概率估計(Maximum a Posteriori Estimation,MAP)要考慮的問題。
通過前面的介紹,我們瞭解到在最大似然估計中,認爲參數爲固定的值,只是其值未知,通過最大化似然函數來求解參數。但是在最大後驗概率估計中,認爲參數是一個隨機變量,其本身也具有某種概率分佈,稱爲先驗分佈。在求解時,除了要考慮似然函數 P(X∣θ) 之外,還要考慮 θ 的先驗分佈 P(θ),因此其認爲是 P(X∣θ)P(θ) 取最大值的 θ 就是最好的 θ。此時要最大化的函數變爲 P(X∣θ)P(θ),由於 X 的先驗分佈 P(X) 是固定的,因此最大化函數可變爲 P(X∣θ)P(θ)/P(X),根據貝葉斯公式可知,實際上要最大化的函數是 P(θ∣X),其爲 θ 的後驗概率。最大化後驗概率估計可以看作是正則化的最大似然估計,當然機器學習或深度學習中的正則化通常是加法,而在最大後驗概率估計中採用的是乘法,P(θ) 是正則項。在最大似然估計中,由於認爲 θ 是固定的,因此 P(θ)=1。
2.2.1 示例一:參數 θ 的先驗分佈爲 Beta 分佈
我們繼續使用上面的拋硬幣的例子,假設參數 θ 的先驗分佈爲 Beta 分佈。則
P(X∣θ)P(θ)=i=1∏nθxi(1−θ)1−xiB(α,β)1θα−1(1−θ)β−1(15)
對其求對數得
lnP(X∣θ)P(θ)=i=1∑nln(θxi(1−θ)1−xi)+lnB(α,β)1+lnθα−1+ln(1−θ)β−1=lnθi=1∑nxi+ln(1−θ)i=1∑n(1−xi)−lnB(α,β)+(α−1)lnθ+(β−1)ln(1−θ)(16)
對參數求導,得
∂θ∂lnP(X∣θ)P(θ)=θ1i=1∑nxi−1−θ1i=1∑n(1−xi)+θα−1−1−θβ−1(17)
令其爲 0,求得
θ^=n+α+β−2∑i=1nxi+α−1(18)
假設 Beta 分佈的參數分別爲 α=3,β=3,將上面的觀測數據代入,可求得
θ^=10+3+3−22+3−1=144=0.2857(19)
2.2.2 求解步驟
最大後驗概率估計的求解步驟:
- 確定參數的先驗分佈以及似然函數。
- 確定參數的後驗分佈函數。
- 將後驗分佈函數轉換爲對數函數。
- 求對數函數的最大值(求導,解方程)
最大後驗概率估計不只是關注當前的觀測數據,還關注已經發生過的先驗知識。
最大後驗估計和最大似然估計的區別:最大後驗估計允許我們把先驗知識加入到估計模型中,這在樣本很少的時候是很有用的(因此樸素貝葉斯在較少的樣本下就能有很好的表現),因爲樣本很少的時候我們的觀測結果很可能出現偏差,此時先驗知識會把估計的結果“拉”向先驗,實際的預估結果將會在先驗結果的兩側形成一個頂峯。通過調節先驗分佈的參數,比如beta分佈的α,β,我們還可以調節把估計的結果“拉”向先驗的幅度,α,β越大,這個頂峯越尖銳。這樣的參數,我們叫做預估模型的“超參數”。
2.3 貝葉斯估計
貝葉斯估計是最大後驗概率估計的進一步擴展,貝葉斯估計同樣假定參數是一個隨機變量,但貝葉斯估計並不是直接估計出參數的某個特定值,而是估計參數的分佈,這是貝葉斯估計與最大後驗概率估計不同的地方。在貝葉斯估計中,先驗分佈是不可忽略的。
待添加……
參考:
[1] 周志華《機器學習》
[2] 李航《統計學習方法》
[3] 貝葉斯估計、最大似然估計、最大後驗概率估計
[4] 最大似然估計、最大後驗估計、貝葉斯估計的對比
[5] 最大似然估計 (MLE) 最大後驗概率(MAP)
[6] 極大似然估計詳解