支持向量機(Support Vector Machine,SVM)
目錄
【內容包含 第六章】
支持向量迴歸(Support Vector Regrassion,SVR)
間隔與支持向量
分類學習的主要思想是在樣本空間中找到一個劃分超平面,將不同樣本分開。
超平面可以定義爲
其中w是法向量,決定超平面的方向,b是位移項,決定超平面到原點的距離。
樣本空間中任意點到超平面(w,b)的距離爲(根據點到平面的距離公式,這裏是超平面,應該是廣義的)
令
離超平面最近的幾個樣本點(可能不止正反兩個)使上式成立,被稱爲支持向量(support vector),異類支持向量的距離和爲
即 間隔(margin)
支持向量機即使間隔最大化
對偶問題(引入拉格朗日乘子)
解出後即可得到模型的w,b
求解的方法主要是二次規劃算法,比如SMO(Sequential Minimal Optimization),每次更新兩個參數,把其他的變量固定,不斷迭代直至收斂(每次選取的兩個變量對應的樣本之間的間隔最大,可以儘快的收斂)
核函數
並非所有問題都是線性可分的,需要把樣本從原始空間映射至高維空間,則模型可以表示爲
相應的對偶問題
假設存在覈函數 (kernel function)
此時模型爲
只要一個對稱函數所對應的核矩陣半正定,就能作爲核函數使用,,一個半正定核矩陣總是能找到一個與之對應的映射,隱式的定義了一個 再生核希爾伯特空間(Reproducing Kernel Hilbert Space,RKHS)
常用的核函數:線性核、多項式核、高斯核、拉普拉斯核、Sigmoid核
軟間隔(soft margin)
雖然可以通過升維來實現線性可分,不過仍然是很困難的,引入軟間隔的概念,即允許SVM在一些樣本上出錯
由於 數學性質不好,常用的替代損失函數:
hinge損失:
指數損失:
對率損失:
引入鬆弛變量 ,軟間隔支持向量機爲
正則化(regularization)
其中是正則化項,也稱爲 結構風險(structural risk),C爲正則化常數,爲常用的正則化項,範數傾向於w的分量取值均衡,範數則傾向於w分量儘量稀疏。
支持向量迴歸(Support Vector Regrassion,SVR)
SVR的損失計算允許f(x)和y之間有最小的偏差,若樣本落入2的間隔帶中,被認爲是正確預測,不計損失。
此時SVR的解爲
核方法
當正則化項爲單調遞增時,優化問題的解總可以寫成核函數 的線性組合。
比如可以通過引入核函數吧線性判別器擴展爲非線性判別器,比如 核線性判別分析(Kernelized Linear Discriminant Analysis,KLDA)
假設存在映射
核函數
學習目標爲