貝葉斯 Treatment
- 最大後驗估計 Maximum a Posterior Estimate(MAP)
參數的先驗:
p0(q0j∣α1,α2)=Beta(α1,α2)=Γ(α1)Γ(α2)Γ(α1+α2)q0jα1−1(1−q0jα2−1)
α0=1並且α1=1上面的分佈是均勻分佈。
q^=argqmaxlogp(q∣Xi,yi)=argqmax(logp0(q)+logp(Xi,yi∣q))
使用拉格朗日算子求上面式子的偏導數
q0j^=N0+α1+α2−2N0j+α1−1
q1j^=N1+α1+α2−2N1j+α1−1
對於連續的Xi進行分類,例如圖像的像素,如何使用貝葉斯估計呢,我們可以使用GBN(高斯貝葉斯估計),假設Xi的方差是一樣的。
P(Xi∣Y=y)=N(μiy,σi2)
分類邊界:(兩類的概率是相等的)
log∏i=1dP(Xi∣Y=1)∏i=1dP(Xi∣Y=0)=0
得到
logπ1−π+i∑2σi2μi12−μi02+i∑σi2μi1−μi0xi=0等價於
線性分類邊界w0+i∑wixi=0
但是當σ1=σ2 不是線性的分類邊界,是非線性的分類邊界。
理解GNB的假設
p(y=1∣x,μ,∑,π)=p(x∣μ,∑,π)p(y=1,x∣μ,∑,π)
在貝葉斯估計前提下
p(y=1∣x,μ,∑,π)=1+p(y=1,x∣μ,∑,π)p(y=0,x∣μ,∑,π)1=1+π∏iN(xi∣μi1,σi2)(1−π)∏iN(xi∣μi0,σi2)1=1+exp(−wTx−w0)1
sigmoid函數是 1+exp(−x)1
其實就是線性函數然後sigmoid函數,多分類可以加softmax 函數。
上面的是生成式的分類,得到y^=argmaxp(X,Y=y)/p(X)
p(X)可以省略。學習x的分佈,定義的是x,y的聯合分佈。
但是可以直接學習y^=yargmaxP(Y=y∣X)得到判別式分類,直接從數據學習P(Y|X),沒有P(X)的學習。SVM是判別式的方法。