AdaBoost算法介紹

    Adaboost是一種迭代算法,其核心思想是針對同一個訓練集訓練不同的分類器(弱分類器),然後把這些弱分類器集合起來,構成一個更強的最終分類器(強分類器)。其算法本身是通過改變數據分佈來實現的,它根據每次訓練集之中每個樣本的分類是否正確,以及上次的總體分類的準確率,來確定每個樣本的權值。將修改過權值的新數據集送給下層分類器進行訓練,最後將每次訓練得到的分類器最後融合起來,作爲最後的決策分類器。使用adaboost分類器可以排除一些不必要的訓練數據特徵,並將關鍵放在關鍵的訓練數據上面。

  目前,對Adaboost算法的研究以及應用大多集中於分類問題,同時近年也出 現了一些在迴歸問題上的應用。就其應用Adaboost系列主要解決了: 兩類問題、 多類單標籤問題、多類多標籤問題、大類單標籤問題,迴歸問題。它用全部的訓練樣本進行學習。
  該算法其實是一個簡單的弱分類算法提升過程,這個過程通過不斷的訓練,可以提高對數據的分類能力。整個過程如下所示:
  1. 先通過對N個訓練樣本的學習得到第一個弱分類器 ;
  2. 將 分錯的樣本和其他的新數據一起構成一個新的N個的訓練樣本,通過對這個樣本的學習得到第二個弱分類器 ;
  3. 將 和 都分錯了的樣本加上其他的新樣本構成另一個新的N個的訓練樣本,通過對這個樣本的學習得到第三個弱分類器 ;
  4. 最終經過提升的強分類器 。即某個數據被分爲哪一類要通過 , ……的多數表決。
  2.3 Adaboost(Adaptive Boosting)算法
  對於boosting算法,存在兩個問題:
  1. 如何調整訓練集,使得在訓練集上訓練的弱分類器得以進行;
  2. 如何將訓練得到的各個弱分類器聯合起來形成強分類器。
  針對以上兩個問題,adaboost算法進行了調整:
  1. 使用加權後選取的訓練數據代替隨機選取的訓練樣本,這樣將訓練的焦點集中在比較難分的訓練數據樣本上;
  2. 將弱分類器聯合起來,使用加權的投票機制代替平均投票機制。讓分類效果好的弱分類器具有較大的權重,而分類效果差的分類器具有較小的權重。
  Adaboost算法是Freund和Schapire根據在線分配算法提出的,他們詳細分析了Adaboost算法錯誤率 的上界,以及爲了使強分類器 達到錯誤率 ,算法所需要的最多迭代次數等相關問題。與Boosting算法不同的是,adaboost算法不需要預先知道弱學習算法學習正確率的下限即弱分類器的誤差,並且最後得到的強分類器的分類精度依賴於所有弱分類器的分類精度, 這樣可以深入挖掘弱分類器算法的能力。
  Adaboost算法中不同的訓練集是通過調整每個樣本對應的權重來實現的。開始時,每個樣本對應的權重是相同的,即 其中 n 爲樣本個數,在此樣本分佈下訓練出一弱分類器 。對於 分類錯誤的樣本,加大其對應的權重;而對於分類正確的樣本,降低其權重,這樣分錯的樣本就被突出出來,從而得到一個新的樣本分佈 。在新的樣本分佈下,再次對弱分類器進行訓練,得到弱分類器。依次類推,經過 T 次循環,得到 T 個弱分類器,把這 T 個弱分類器按一定的權重疊加(boost)起來,得到最終想要的強分類器。
  Adaboost算法的具體步驟如下:
  1. 給定訓練樣本集 ,其中 分別對應於正例樣本和負例樣本; 爲訓練的最大循環次數;
  2. 初始化樣本權重 ,即爲訓練樣本的初始概率分佈;
  3. 第一次迭代:
  (1) 訓練樣本的概率分佈 下,訓練弱分類器:
  (2) 計算弱分類器的錯誤率:
  (3) 選取 ,使得 最小
  (4) 更新樣本權重:
  (5) 最終得到的強分類器:
  Adaboost算法是經過調整的Boosting算法,其能夠對弱學習得到的弱分類器的錯誤進行適應性調整。上述算法中迭代了 次的主循環,每一次循環根據當前的權重分佈 對樣本x定一個分佈P,然後對這個分佈下的樣本使用若學習算法得到一個錯誤率爲 的弱分類器 ,對於這個算法定義的弱學習算法,對所有的 ,都有 ,而這個錯誤率的上限並不需要事先知道,實際上 。每一次迭代,都要對權重進行更新。更新的規則是:減小弱分類器分類效果較好的數據的概率,增大弱分類器分類效果較差的數據的概率。最終的分類器是 個弱分類器的加權平均。

   有些想法,還不明確,想到是否可以使用此方法,在svm分類器之前進行處理。還要再看些paper再決定!

發佈了8 篇原創文章 · 獲贊 18 · 訪問量 17萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章