大家好,繼續理論學習,今天進入了集成學習這一章,首先介紹AdaBoost算法。
集成學習分爲Boosting和Bagging兩種,其中Boosting算法是使用同質的弱分類器集成爲強分類其,bagging爲使用異質的弱分類器集成爲強分類器,而Boosting的經典算法就是AdaBoost算法。
AdaBoost算法有使用循環迭代的方法更新兩個權重:一個是每次迭代所訓練的濾波器在最後的總結果中所佔重要性的權重,一個是每次迭代後根據訓練結果對訓練數據的分佈進行調整的權重(相當於對下一次迭代來說,訓練數據帶權學習,上一次分類錯誤的數據權重會高,讓下一次訓練時更加重視錯誤數據,因爲每次不同迭代權重不同,數據的重要性也不一樣,因此我們說影響了數據分佈。)
其大體流程如下:
感覺集成學習很難,後面有新的理解再補充,我們下期見!