感知機學習算法

感知機學習算法的原始形式:

感知機的學習問題轉化爲求解損失函數最優化問題,求解方法爲隨機梯度下降法。

求參數w b,使其爲損失函數極小化問題的解。

感知機學習算法是誤分類驅動的。

首先,隨機選取一個超平面w0,b0 然後用梯度下降法不斷的極小化損失函數。極小化過程是一次隨機選取一個誤分類點,使其梯度下降。

隨機梯度下降法:https://zh.wikipedia.org/wiki/%E6%A2%AF%E5%BA%A6%E4%B8%8B%E9%99%8D%E6%B3%95

感知機學習算法的原始形式的直觀解釋:當實例被誤分類時,去調整w b的值,使得超平面向着誤分點的一側移動。減小該誤分點到超平面的距離,直至超平面越過該誤分點使其被正確分類。

感知機學習算法採用不同的初始值或者選取不同的誤分類點時得到的解也可以不同。


該算法的收斂性:

證明對於線性可分數據集,感知機學習算法的原始形式可以通過有限次的迭代可以得到一個將訓練數據集完全正確劃分的超平面和感知機模型。

誤分類次數k是有上界的,經過有限次數的搜索能夠找到將數據集正確分類的超平面。也就是說,當數據集線性可分時,感知機學習算法原始形式迭代是收斂的。爲了得到唯一的超平面,需要對分離超平面增加約束條件。

當訓練集線性不可分時,感知機學習算法無法進行收斂,迭代結果會發生震盪。


感知集學習算法的對偶形式:

感知機學習算法有兩種形式:原始形式,對偶形式。

對偶形式的基本思想是將w b表示爲實例xi 和標記yi的線性組合形式,通過求解其係數而求得w和b。

實例點更新次數越多,就意味着它距離超平面點越近,就越難被正確分類。


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章