文章目錄
本節課主要介紹Aggregation Models,目的是將不同的hypothesis得到的g集合起來,利用集體智慧得到更好的預測模型G。分爲兩種:blending和bagging。
1.首先介紹了Blending,blending是將已存在的所有g結合起來,可以是uniformly, linearly或者non-linearly組合形式。
2.然後討論在沒有那麼多g的情況下,使用bootstrap方式,從已有數據集中得到新的類似的數據集,從而得到不同的g。這種做法稱爲bagging。
1.Aggregation model
通過aggregation的方法,我們可以得到更強的大G,或者更中庸的大G(油門和剎車都控制好了)。
aggregation裏的兩種:blending和bagging
2.Blending(混合)
已知g(x)
2.1 Uniform blending(voting)
classification:取多數值,少數服從多數
Regression:取平均值
2.2 Linear and any blending
對g做線性組合的運算
(待補充)
3.Bagging(bootstrap aggregation:BAGging)
Bagging:從訓練集進行子抽樣組成每個基模型所需要的子訓練集,對所有基模型預測的結果進行綜合產生最終的預測結果,至於爲什麼叫bootstrap aggregation,因爲它抽取訓練樣本的時候採用的就是bootstrap的方法。
Bootstrap(自助法)
bootstrap是一種抽樣方法。
子樣本之於樣本,可以類比樣本之於總體。
Bagging策略過程
步驟:
1)從樣本集中用Bootstrap採樣選出n個訓練樣本(放回,因爲別的分類器抽訓練樣本的時候也要用)
2)在所有屬性上,用這n個樣本訓練分類器(CART or SVM or …)
3)重複以上兩步m次,就可以得到m個分類器(CART or SVM or …)
4)將數據放在這m個分類器上跑,最後投票機制(多數服從少數)看到底分到哪一類(分類問題)
視頻鏈接:https://www.bilibili.com/video/av12469267/?p=26
參考鏈接:https://www.jianshu.com/p/708dff71df3a