AdaBoost:https://blog.csdn.net/v_JULY_v/article/details/40718799
提升樹:https://www.cnblogs.com/daguankele/p/6557328.html
強可學習的:一個概念如果存在一個多項式的學習算法能夠學習它,並且正確了很高,那麼,這個概念是強可學習的;
弱可學習的:一個概念如果存在一個多項式的學習算法能夠學習它,並且學習的正確率僅比隨機猜測略好,那麼,這個概念是強可學習的;
強可學習和弱可學習是等價的;
在學習中,如果發現了“弱學習算法“,能否將他提升爲“強學習算法”
大多數提升方法是改變訓練數據的概率分佈(訓練數據的權值分佈)
1.在每一輪如何改變訓練數據的權值和概率分佈?
提高被前一輪錯誤分類樣本的權值,降低正確分類樣本的權值
2.如何將弱分類器組合成強分類器?
選取多數表決方式,即加大分類誤差小的弱分類器權重
AdaBoost就是將一些簡單可訓練的非線性關係,通過加權和的方式將多個非線性關係相加,其中每次訓練的數據集的權重不同,參見1
提升樹:損失函數爲平方損失爲迴歸,指數損失爲分類器
針對其他損失函數,提出梯度提升方法,不再使用殘差而是損失的負梯度
習題8.1 問題總結爲:AdaBoost算法學習一個強分類器,且假設弱分類器爲決策樹樁
則 涉及:AdaBoost學習強分類器方法,參考8.1.3例子;並涉及決策樹分類器知識,選用CART算法,可參考5.5 定義5.4 (基尼指數)算法5.6(CART生成算法) 例5.4
以上多爲自己計算,參考了書本知識和網上資源,但發現有些不同,有錯誤的地方希望大家指出,共同學習