Kernel Method

Background

用線性分類方法求解非線性分類問題分爲兩步:

  • 1.使用一個變換將原空間的數據映射到新空間。
  • 2.在新空間裏用線性分類學習方法從訓練數據中學習分類模型。

核技巧就屬於這樣的方法

核技巧用於SVM,其基本想法就是通過一個非線性變換將輸入空間(歐式空間RnR^n或離散集合)對應於一個特徵空間(希爾伯特空間HH),使得在輸入空間RnR^n中的超曲面模型對應於特徵空間H中的超平面模型(支持向量機)。 這樣,分類問題的學習任務通過在特徵空間中求解線性支持向量機就可以完成。

概覽

在這裏插入圖片描述

基本概念:

kernel的本質:在原空間中不好劃分,可以經過一個空間變換,即經過一個非線性的函數變換,(不一定是變換到高維空間),在變換後的空間中可能容易線性劃分。

核函數定義

χ\chi是輸入空間(歐式空間RnR^n的子集或離散集合),又設 HH爲特徵空間(希爾伯特空間),如果存在一個從χ\chiHH的映射
ϕ(x):χ>H\phi(x):\chi->H
使得對所有的x,zχx, z ∈\chi ,函數κ(x,z)\kappa(x, z)滿足條件
κ(x,z)=ϕ(x)ϕ(z)\kappa(x, z)=\phi(x)*\phi(z)
則稱κ(x,z)\kappa(x, z)爲核函數,ϕ(x)\phi(x)爲映射函數。ϕ(x)ϕ(z)\phi(x)*\phi(z)爲其內積。

在這裏插入圖片描述
另一個比較重要的感念:kernel function
下圖最後的公式是求高緯度空間兩個點的內積,經轉換得到原低緯空間中兩點內積的函數。將這個函數定義爲kernel function。

好像只要操縱 kernel function,就能解決所有的問題。

並且知道了kernel function,好像就不需要知道feature mapping ϕ\phi
在這裏插入圖片描述
總結:
在這裏插入圖片描述
爲什麼要計算高維空間的內積:因爲內積決定了幾何性質。如最重要的性質是:距離和角度。
下面分析一下內積如何決定距離和角度。

在這裏插入圖片描述
距離的計算:
在這裏插入圖片描述
角度的計算:
在這裏插入圖片描述
也就是說:哪些函數可以看作kernel function,然後就可以進一步算出內積、距離和角度

Kernel Matrix 內積矩陣 – 任意兩個點的內積。
在這裏插入圖片描述

在這裏插入圖片描述
在這裏插入圖片描述
計算 y=sgn(<ϕ(x)c,w>)y = sgn(<\phi(x)-c, w>) 的方法。

  • 如果ϕ\phi函數已知。
    在這裏插入圖片描述- 如果ϕ\phi函數未知,僅知道kernel function: κ(x,y)\kappa(x, y)
    在這裏插入圖片描述

Question:
在這裏插入圖片描述
Answer:
在這裏插入圖片描述
證明下面的函數是有限半正定的
在這裏插入圖片描述
在這裏插入圖片描述

常用的kernel function,都滿足有限半正定
在這裏插入圖片描述

練習
在這裏插入圖片描述

Dual Representation 雙重表徵

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章