第 1 周任務
分類問題:K-鄰近算法
分類問題:決策樹
第 2 周任務
分類問題:樸素貝葉斯
分類問題:邏輯迴歸
第 3 周任務
分類問題:支持向量機
第 4 周任務
分類問題:AdaBoost
第 5 周任務
迴歸問題:線性迴歸、嶺迴歸、套索方法、逐步迴歸等
迴歸問題:樹迴歸
第 6 周任務
聚類問題:K均值聚類
相關問題:Apriori
第 7 周任務
相關問題:FP-Growth
第 8 周任務
簡化數據:PCA主成分分析
簡化數據:SVD奇異值分解
1.簡介
Boosting,也稱爲增強學習或提升法,是一種重要的集成學習技術,能夠將預測精度僅比隨機猜度略高的弱學習器增強爲預測精度高的強學習器,這在直接構造強學習器非常困難的情況下,爲學習算法的設計提供了一種有效的新思路和新方法。作爲一種元算法框架,Boosting幾乎可以應用於所有目前流行的機器學習算法以進一步加強原算法的預測精度,應用十分廣泛,產生了極大的影響。而AdaBoost正是其中最成功的代表,被評爲數據挖掘十大算法之一。在AdaBoost提出至今的十幾年間,機器學習領域的諸多知名學者不斷投入到算法相關理論的研究中去,紮實的理論爲AdaBoost算法的成功應用打下了堅實的基礎。AdaBoost的成功不僅僅在於它是一種有效的學習算法,還在於1)它讓Boosting從最初的猜想變成一種真正具有實用價值的算法;2)算法採用的一些技巧,如:打破原有樣本分佈,也爲其他統計學習算法的設計帶來了重要的啓示;3)相關理論研究成果極大地促進了集成學習的發展。
2.Boosting提升算法
AdaBoost是典型的Boosting算法,屬於Boosting家族的一員。在說AdaBoost之前,先說說Boosting提升算法。Boosting算法是將“弱學習算法“提升爲“強學習算法”的過程,主要思想是“三個臭皮匠頂個諸葛亮”。一般來說,找到弱學習算法要相對容易一些,然後通過反覆學習得到一系列弱分類器,組合這些弱分類器得到一個強分類器。Boosting算法要涉及到兩個部分,加法模型和前向分步算法。加法模型就是說強分類器由一系列弱分類器線性相加而成。一般組合形式如下:
其中, 就是一個個的弱分類器,是弱分類器學習到的最優參數,就是弱學習在強分類器中所佔比重,P是所有和的組合。這些弱分類器線性相加組成強分類器。
前向分步就是說在訓練過程中,下一輪迭代產生的分類器是在上一輪的基礎上訓練得來的。也就是可以寫成這樣的形式:
由於採用的損失函數不同,Boosting算法也因此有了不同的類型,AdaBoost就是損失函數爲指數損失的Boosting算法。
3. AdaBoost
3.1. 原理理解
基於Boosting的理解,對於AdaBoost,我們要搞清楚兩點:
- 每一次迭代的弱學習有何不一樣,如何學習?
- 弱分類器權值如何確定?
對於第一個問題,AdaBoost改變了訓練數據的權值,也就是樣本的概率分佈,其思想是將關注點放在被錯誤分類的樣本上,減小上一輪被正確分類的樣本權值,提高那些被錯誤分類的樣本權值。然後,再根據所採用的一些基本機器學習算法進行學習,比如邏輯迴歸。
對於第二個問題,AdaBoost採用加權多數表決的方法,加大分類誤差率小的弱分類器的權重,減小分類誤差率大的弱分類器的權重。這個很好理解,正確率高分得好的弱分類器在強分類器中當然應該有較大的發言權。
3.1.實例
爲了加深理解,我們來舉一個例子。
有如下的訓練樣本,我們需要構建強分類器對其進行分類。x是特徵,y是標籤。
序號 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 |
---|---|---|---|---|---|---|---|---|---|---|
x | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
y | 1 | 1 | 1 | -1 | -1 | -1 | 1 | 1 | 1 | -1 |
令權值分佈
並假設一開始的權值分佈是均勻分佈:
現在開始訓練第一個弱分類器。我們發現閾值取2.5時分類誤差率最低,得到弱分類器爲:
當然,也可以用別的弱分類器,只要誤差率最低即可。這裏爲了方便,用了分段函數。得到了分類誤差率。
第二步計算在強分類器中的係數,這個公式先放在這裏,下面再做推導。
第三步更新樣本的權值分佈,用於下一輪迭代訓練。由公式:
得到新的權值分佈,從各0.1變成了:
可以看出,被分類正確的樣本權值減小了,被錯誤分類的樣本權值提高了。
第四步得到第一輪迭代的強分類器:
以此類推,經過第二輪……第N輪,迭代多次直至得到最終的強分類器。迭代範圍可以自己定義,比如限定收斂閾值,分類誤差率小於某一個值就停止迭代,比如限定迭代次數,迭代1000次停止。這裏數據簡單,在第3輪迭代時,得到強分類器:
的分類誤差率爲0,結束迭代。
就是最終的強分類器。
3.2. 算法流程
總結一下,得到的算法流程:
輸入:訓練數據集,其中,,迭代次數
- 初始化訓練樣本的權值分佈:。
- 對於
( a ) 使用具有權值分佈的訓練數據集進行學習,得到弱分類器
( b ) 計算在訓練數據集上的分類誤差率:
( c ) 計算在強分類器中所佔的權重:
( d ) 更新訓練數據集的權值分佈(這裏,是歸一化因子,爲了使樣本的概率分佈和爲1):
- 得到最終分類器:
未完待續。。。
參考資料
- https://www.cnblogs.com/ScorpioLu/p/8295990.html
- https://louisscorpio.github.io/2017/11/28/%E4%BB%A3%E7%A0%81%E5%AE%9E%E6%88%98%E4%B9%8BAdaBoost/