2. 感知機

感知機

輸入空間X=Rn , 輸出空間Y={-1,+1}. 輸入x屬於X表示實例的特徵向量,對應於輸入空間的點; 輸出y屬於Y表示實例的類別, 由輸入空間到輸出空間的如下函數

f(x)=sign(wx+b)

稱爲感知機. w叫做權值,b叫做偏置, w*x表示w和x的內積(點積)

幾何解釋

w*x+b=0對應於特徵空間中的一個超平面S, w是該平面的法向量, b是截距(將平面平移到座標原點所需距離). 該平面分特徵向量爲兩部分, 分別對應正,負兩類.
原點到該平面的距離: |b|||w|| . 任意一點x到超平面S的距離: 1||w|||wx+b| . (||w||是w的L2範數)

感知機的損失函數

誤分類點到超平面S的總距離.
1. 輸入空間中任一點x到超平面S的距離: 1||w|||wx+b|
2. 對於誤分類的數據(xi,yi) 來說: yi(wxi+b)>0
wxi+b>0,正確分類: yi=+1,誤分類: yi=1
wxi+b<0,正確分類: yi=1,誤分類: yi=+1
所以對於誤分類的(xi,yi),yi(wxi+b)>0
因此誤分類的點xi 到超平面S的距離是1||w||yi(wxi+b)
3. 所有誤分類點(集合M)到超平面S的總距離爲: 1||w||xiMyi(wxi+b)

定義
給定訓練數據集T={(x1,y1),(x2,y2),...,(xn,yn) }, 其中xX=Rn,yY={+1,1} , i=1,2,…,N. 感知機f(x)=sign(w*x+b)學習的損失函數定義爲:

L(w,b)=xiMyi(wxi+b)=xiM|wxi+b|其中M爲誤分類點的集合

一個特定樣本點的損失函數, 在被誤分類時是w,b的線性函數, 在正確分類時是0.
因此對於所有被誤分類點的損失函數是w,b的連續可導函數(線性模型)

學習策略

在假設空間中選取使損失函數最小的模型參數(w,b)

學習算法

感知機學習問題轉化爲求解損失函數的最優化問題.
採用隨機梯度下降法, 極小化過程不是一次使M中所有誤分類點的梯度下降, 而是一次隨機選取一個誤分類點使其梯度下降.
1. 損失函數L(w,b)的梯度:wL(w,b)=xiMyixi , bL(w,b)=xiMyi
2. 隨機選取一個誤分類點(xi,yi) , 對w,b進行更新: wwλ(yixi),bbλ(yi)

感知機學習算法的原始形式:
clipboard.png

感知機由於採用不同的初值或選取不同的誤分類點順序, 解可以不同

Novikoff定理

設訓練數據集T={(x1,y1),(x2,y2),...,(xn,yn) }是線性可分的, 其中xX=Rn,yY={+1,1} , i=1,2,…,N. 則
1: 存在滿足條件||W||=1的超平面 W*X=wx+b=將訓練數據集完全正確分開; 且存在γ >0, 對所有的i=1,2,…,N, 有yi(WX)=yi(wxi+b)γ . 其中W=(w,b), X=(x,1)
2: 令R=max(X), 則感知機算法在訓練數據集上的誤分類次數k滿足 k(Rγ)2

Proof:
設此超平面爲WoptX=woptx+bopt , 使||Wopt||=1 ,因此對於所有的i=1,2,…,N有

yi(WoptXi)=yi(woptxi+bopt)>0

所以存在
γ=minyi(woptxi+bopt)使得yi(WoptXi)=yi(woptxi+bopt)γ

設感知機算法從W0 開始, Wk1 是第k個誤分類實例之前的權重向量(被正確分類的不需要更新權重向量), 即Wk1=(wk1,bk1) , 則第k個誤分類實例的條件是
yi(Wk1Xi)=yi(wk1xi+bk1)0

另由梯度下降法有
Wk=Wk1+λyiXi(wk=wk1+λyixi;bk=bk1+λyi)

所以有如下不等式:
WKWopt=Wk1Wopt+λyiXiWoptWk1Wopt+λγ
由以上公式遞推得到: WkWoptWk1Wopt+λγWk2Wopt+2λγkλγ

||Wk||2=||Wk1+λyiXi||2=||Wk1||2+λ2||Xi||2+2Wk1λyiXi(yi2=1) ||Wk1||2+λ2||Xi||2(0λ1,yi(Wk1Xi)0) ||Wk1||2+λ2R2(R=max(X)) ||Wk2||2+2λ2R2 kλ2R2

向量點積: AB=|A||B|cosθ,得到: AB|A||B|

kλγWkWopt||Wk||||Wopt||kλR,由此得到: k2γ2kR2,k(Rγ)2

以上證明表面: 當訓練數據集線性可分時, 誤分類的次數K是有上限的, 即經過有限次搜索一定可以找到將訓練數據集完全正確分開的分離超平面.

感知機學習算法的對偶形式:
clipboard.png

其中的ai=niλ,ni 表示第i個數據被誤分類的次數, 則w,b關於(xi,yi) 的增量分別是aiyixiaiyi
w=i=1Naiyixi,b=i=1Naiyi

Gram矩陣: 預先將訓練集中實例間的內積計算出來並以矩陣的形式存儲

對偶形式和原始形式本質是一致的, 對偶形式會事先計算實例間的內積, 所以比原始形式有更快的速度

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章