20170106 學習支持向量機

這是一個坑,必須要填上

就像我在實驗室的電腦上面筆記裏記錄的一樣,支持向量機的解決方案就是尋找樣例中滿足最大邊界距離的超平面。即獲得

WX+b=0
使得超平面到兩側最近距離之和最大(因爲大的margin的容錯率高,適用情況更加廣泛)。
根據wiki的表述:
There are many hyperplanes that might classify the data. One reasonable choice as the best hyperplane is the one that represents the largest separation, or margin, between the two classes. So we choose the hyperplane so that the distance from it to the nearest data point on each side is maximized.
有很多的超平面都能夠實現對數據的分類,但是一個最佳超平面的合理選擇是兩類之間具有最大分隔度或者說最大距離的超平面。所以我們選擇從超平面到兩側數據集中的最近距離具有最大值的超平面。(這句話的意思是到兩邊的距離都要最大化,因此超平面在這兩個邊界之間)
a good separation is achieved by the hyperplane that has the largest distance to the nearest training-data point of any class (so-called functional margin)
一種最佳的超平面就是到任一類訓練數據中最近點的距離都能達到最大化。
其實就是超平面到所有類的最小距離最大化的
Wb

超平面的作用同時也就指出了支持向量機的侷限性:他是一種二分的分類器,即給出是否的結果。想要做多分類問題,就需要多支持向量機進行擴展。
首先是要熟悉個概念:什麼是支持向量和支持向量機。
支持向量機其實就是一種分類器,那麼,問題就指向了什麼是支持向量的問題。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章