十大機器學習算法之支持向量機(一)
1、隨便說點
這個系列就是想要記述一下自己學習機器學習算法的一個心路歷程的對算法的認識,如果有幫助到更多人(還是小開心的~~~~),如果有錯誤的話歡迎各路大神積極的跟我聯繫修正錯誤,免的誤導大家。
2、正題
2.1、課前知識
SVM是一種監督式學習方法。對於線性不可分的情況,支持向量機通過使用非線性映射把向量映射到一個更高維的空間裏,基於機構風險最小化理論,在這個空間裏建立有一個分割超平面,使得學習期得到全局最優化,並且在整個樣本空間的期望風險以某個概率滿足一定上界。在分開數據的超平面兩邊建有兩個相互平行的超平面。分割超平面使得兩個平行的超平面的距離最大化。這個距離越大,分類器的總體誤差就會越小,分類效果越好。
2.2、帶領大家再看一遍logistic迴歸
Logistic迴歸的目的是從特徵學習出一個0/1分類模型,而這個模型是將特徵的線性組合作爲自變量,由於自變量的取值是負無窮到正無窮。因此,使用logistic函數將自變量映射到(0,1)上,映射後的值被認爲是屬於y=1的概率。
2.3形式化表示
在SVM中使用的標籤是-1和1,替換的是logistic迴歸中的0和1 (其實標籤數據都是無所謂多少的,只是爲了更好的區分而已)。θ替換成了w和b。以前,其中=1的。我們現在把替換爲b,其他的θ替換爲w,替換後爲:可以進一步簡化爲,同時。也就是說最終y由y=0和y=1變爲y=-1和y=1,只是這些標記數據變化之外。其他都沒有什麼區別。現在的假設函數爲:。上一小節我們說過只需要考慮的正負問題,不用關心函數g(z)的大小變化,因此這裏我們將g(z)做一個簡化處理,把他簡單的映射到-1和1上。映射關係如下所示:
2.4函數間隔和幾何間隔
我跟你們分享一下我理解的函數間隔和幾何間隔。函數間隔顧名思義由函數出發計算出來的間隔,就是我們數學上學習到的計算點到平面的距離;幾何間隔就是計算的點到平面的距離除以係數。接下來聽我慢慢道來。
函數間隔
概念:點到超平面的距離。給定一個訓練樣本,x是特徵,y是標籤,i標示第i個樣本。
幾何間隔
先看一張圖
2.5最優間隔分類器
在前面我們說過,我們的目標就是尋找到一個超平面,這個超平面使得離這個超平面的距離是越大越好,達到最大就是我們想要的效果。(就是我們所說的使得所有的點都必須遠離超平面,如果最近的都遠離了,那麼其他的點肯定也都是遠離的),我們現在所關心的就是要儘量使得離得最近的點到超平面的距離最大。畫個圖比較明瞭************************(好醜的圖,不忍直視)
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.