李航《統計學習方法》AdaBoost算法(課後習題)

AdaBoost:https://blog.csdn.net/v_JULY_v/article/details/40718799

提升樹:https://www.cnblogs.com/daguankele/p/6557328.html

強可學習的:一個概念如果存在一個多項式的學習算法能夠學習它,並且正確了很高,那麼,這個概念是強可學習的;

弱可學習的:一個概念如果存在一個多項式的學習算法能夠學習它,並且學習的正確率僅比隨機猜測略好,那麼,這個概念是強可學習的;

強可學習和弱可學習是等價的;

在學習中,如果發現了“弱學習算法“,能否將他提升爲“強學習算法”

大多數提升方法是改變訓練數據的概率分佈(訓練數據的權值分佈)

1.在每一輪如何改變訓練數據的權值和概率分佈?

提高被前一輪錯誤分類樣本的權值,降低正確分類樣本的權值

2.如何將弱分類器組合成強分類器?

選取多數表決方式,即加大分類誤差小的弱分類器權重

AdaBoost就是將一些簡單可訓練的非線性關係,通過加權和的方式將多個非線性關係相加,其中每次訓練的數據集的權重不同,參見1

 

提升樹:損失函數爲平方損失爲迴歸,指數損失爲分類器

針對其他損失函數,提出梯度提升方法,不再使用殘差而是損失的負梯度

 

習題8.1 問題總結爲:AdaBoost算法學習一個強分類器,且假設弱分類器爲決策樹樁

則 涉及:AdaBoost學習強分類器方法,參考8.1.3例子;並涉及決策樹分類器知識,選用CART算法,可參考5.5  定義5.4 (基尼指數)算法5.6(CART生成算法) 例5.4

 

 

 

 

  以上多爲自己計算,參考了書本知識和網上資源,但發現有些不同,有錯誤的地方希望大家指出,共同學習

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章