【機器學習算法】感知機模型

1. 感知機模型

  感知機模型是一個二分類的模型,它通過形如y=wx+by=wx+b的式子將實例x轉換爲類別,取+1和-1表示,從而將實例進行劃分。它是簡單並且容易實現的一個模型。
  感知機模型主要用來將平面上線性可分的數據集進行劃分,對於線性不可分的數據集,感知機無法收斂。
  感知機模型的輸入輸出由以下函數進行映射,其中w是n維空間的一個向量,b是偏置,sign是符號函數。
f(x)=sign(wx+b)..........(1)sign(x)={+1x01x<0..........(2) f(x)=sign(wx+b)..........(1) \\ sign(x)= \begin{cases} +1 & x \ge 0 \\ -1 & x \lt 0 \end{cases}..........(2)
  對於感知機的學習策略,我們可以考慮當一個實例點被誤分類,則調整w,b的值 ,使分離超平面向該誤分類點的一側移動,減少該誤分類點與超平面的距離,直至超平面越過該誤分類點使其正確分類。於是有感知機的損失函數
L(w,b)=xiMyi(wxi+b)..........(3) L(w,b)=-\sum_{x_i \in M}y_i(w·x_i+b)..........(3)
  其中M爲誤分類點的集合。可以發現yi(wxi+b)-y_i(w·x_i+b)恆爲正數,當所有點都完全分類正確時,損失函數爲0。對於一個誤分類的樣本點來說,式子(3)是w,b的連續可導函數。所以採用隨機梯度下降法進行學習。感知機學習算法的原始形式如下:

  1. 定義初始的w0,b0w_0,b_0
  2. 掃描訓練集,若yi(wxi+b)0y_i(w·x_i+b) \le 0,則更新w=w+ηyixi,b=b+ηyiw=w+\eta y_ix_i,b=b+\eta y_i
  3. 重複2,直至不存在誤分類點。

c不同的初始值,或者誤分類點的選取順序不同,都可能使得最後得到的w和b不同。

2. 收斂性證明(Novikoff定理)

  我們如何保證在算法原始模型中,經過有限次的迭代後一定會收斂呢?下面我們進行收斂性的證明。首先令w^x^=wx+b\hat w \hat x=w·x+b。假設最終得到的超平面w^optx^=woptx+bopt=0\hat w_{opt}·\hat x=w_{opt}·x+b_{opt}=0,使w^opt=1||\hat w_{opt}||=1,因此對於所有的樣本i,有
yi(w^optx^i)>0 y_i(\hat w_{opt}·\hat x_i) \gt 0
  存在
γ=mini{yi(woptxi+bopt)} \gamma =\min_{i}\{y_i(w_{opt}·x_i+b_{opt})\}
  使得
yi(w^optx^i)γ..........(4) y_i(\hat w_{opt}·\hat x_i) \ge \gamma..........(4)
  選擇初值w^0\hat w_0,令w^k1\hat w_{k-1}是第k個誤分類實例之前的權重向量,則第k個誤分類實例的條件是
yi(w^k1x^i)=yi(wk1xi+bk1)0.........(5) y_i(\hat w_{k-1}·\hat x_i)=y_i(w_{k-1}·x_i+b_{k-1}) \le 0.........(5)
  假如樣本(xi,yi)(x_i,y_i)被誤分類,則更新權重和偏置
wk=wk1+ηyixibk=bk1+ηyi w_k=w_{k-1}+\eta y_ix_i \\ b_k=b_{k-1}+\eta y_i
  即
w^k=w^k1+ηyix^i..........(6) \hat w_{k}=\hat w_{k-1}+\eta y_i\hat x_i..........(6)
  由式子4和6得
w^kw^opt=w^k1w^opt+ηyiw^optx^iw^k1w^opt+ηγ..........(7) \begin{aligned} \hat w_k \hat w_{opt} &=\hat w_{k-1}· \hat w_{opt} + \eta y_i \hat w_{opt} · \hat x_i \\ &\ge \hat w_{k-1}· \hat w_{opt} +\eta \gamma..........(7) \end{aligned}
  因此可得w^k\hat w_kw^k1\hat w_{k-1}之間的遞推式,從而有
w^kw^optw^k1w^opt+ηγw^k2w^opt+2ηγ...kηγ..........(8) \hat w_k \hat w_{opt} \ge \hat w_{k-1}· \hat w_{opt} +\eta \gamma \ge \hat w_{k-2}· \hat w_{opt} +2\eta \gamma \ge ... \ge k\eta \gamma..........(8)
  令R=max1iNxiR=\max\limits_{1 \le i \le N}||x_i||,又由式子5和6推得
w^k2=w^k12+2ηyiw^k1x^i+η2x^i2w^k12+η2x^i2w^k12+η2R2w^k22+2η2R2...kη2R2..........(9) \begin{aligned} ||\hat w_k||^2 &=||\hat w_{k-1}||^2 + 2\eta y_i \hat w_{k-1}·\hat x_i+\eta ^2 ||\hat x_i||^2 \\ &\le ||\hat w_{k-1}||^2 +\eta ^2 ||\hat x_i||^2 \\ &\le ||\hat w_{k-1}||^2 +\eta ^2 R^2 \\ &\le ||\hat w_{k-2}||^2 +2\eta ^2 R^2 \\ &\le ... \\ &\le k\eta ^2 R^2 ..........(9) \end{aligned}
  結合8和9,得到
kηγw^kw^optw^kw^optkηR k\eta \gamma \le \hat w_{k} · \hat w_{opt} \le ||\hat w_k||||\hat w_{opt}|| \le \sqrt{k}\eta R
  於是
k(Rγ)2..........(10) k \le \left(\frac{R}{\gamma}\right)^2..........(10)
  根據10,我們知道誤分類次數k是有上界的,也就是說經過有限次分類我們一定能找到將訓練數據完全分開的超平面。

3. 感知機對偶形式

  假設w和b初始值均爲0,對於誤分類點通過w=w+ηyixiw=w+\eta y_ix_ib=b+ηyib=b+\eta y_i逐步修改,設修改N次,則最後學習到的w和b分別是
w=i=1Naiyixib=i=1Naiyi w=\sum_{i=1}^Na_iy_ix_i \\ b=\sum_{i=1}^Na_iy_i
  其中ai=niηa_i=n_i\etanin_i表示第i個實例點由於被誤分而更新的次數。則我們的感知機模型可以表示爲f(x)=sign(j=1Najyjxjx+b)f(x)=sign\left(\sum\limits_{j=1}^Na_jy_j x_j·x+b\right)
  感知機算法的對偶形式總結如下:

  1. 初始化a=0b=0\vec a=0,b=0
  2. 遍歷訓練集,如果當前樣本yi(j=1Najyjxjx+b)0y_i\left(\sum\limits_{j=1}^Na_jy_j x_j·x+b\right) \le 0,則更新ai=ai+ηb=b+ηyia_i=a_i+\eta,b=b+\eta y_i
  3. 重複2直至沒有誤分類數據。

  由於訓練過程中需要不停地計算內積,因此可以先將訓練實例的內積計算出來並以矩陣的形式存儲,這個矩陣被稱爲Gram矩陣

4.感知機的缺點

  • 在數據集線性可分時,感知器雖然可以找到一個超平面把兩類數據分開,
    但並不能保證能其泛化能力。
  • 感知器對樣本順序比較敏感。每次迭代的順序不一致時,找到的分割超平
    面也往往不一致。
  • 如果訓練集不是線性可分的,就永遠不會收斂

5.感知機的幾個變形

5.1 投票感知機

  投票感知器記錄第k 次更新後得到的權重wkw_k 在之後的訓練過程中正確分類樣本的次數ckc_k 。這樣最後的分類器形式爲:
y=sgn(k=1Kcksgn(wkTx)) y = sgn(\sum_{k=1}^Kc_ksgn(w^T_kx))
  投票感知機需要保存K個權重向量,帶來額外開銷。

5.2 平均感知機

  爲了降低開銷,對投票感知機的式子進行簡化,得到
y=sgn(k=1K(ckwk)Tx)=sgn(wˉTx) \begin{aligned} y & = sgn(\sum_{k=1}^K(c_kw_k)^Tx) \\ & = sgn(\bar w^Tx) \end{aligned}

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章