版權聲明:如需轉載,請註明出處http://blog.csdn.net/a819825294
1.序
距離上一次編輯將近10個月,幸得愛可可老師(微博)推薦,訪問量陡增。最近畢業論文與xgboost相關,於是重新寫一下這篇文章。
關於xgboost的原理網絡上的資源很少,大多數還停留在應用層面,本文通過學習陳天奇博士的PPT、論文、一些網絡資源,希望對xgboost原理進行深入理解。(筆者在最後的參考文獻中會給出地址)
2.xgboost vs gbdt
說到xgboost,不得不說gbdt,兩者都是boosting方法(如圖1所示),瞭解gbdt可以看我這篇文章 地址。
如果不考慮工程實現、解決問題上的一些差異,xgboost與gbdt比較大的不同就是目標函數的定義。
注:紅色箭頭指向的l即爲損失函數;紅色方框爲正則項,包括L1、L2;紅色圓圈爲常數項。xgboost利用泰勒展開三項,做一個近似,我們可以很清晰地看到,最終的目標函數只依賴於每個數據點的在誤差函數上的一階導數和二階導數。
3.原理
對於上面給出的目標函數,我們可以進一步化簡
(1)定義樹的複雜度
對於f的定義做一下細化,把樹拆分成結構部分q和葉子權重部分w。下圖是一個具體的例子。結構函數q把輸入映射到葉子的索引號上面去,而w給定了每個索引號對應的葉子分數是什麼。
定義這個複雜度包含了一棵樹裏面節點的個數,以及每個樹葉子節點上面輸出分數的L2模平方。當然這不是唯一的一種定義方式,不過這一定義方式學習出的樹效果一般都比較不錯。下圖還給出了複雜度計算的一個例子。
注:方框部分在最終的模型公式中控制這部分的比重,對應模型參數中的lambda ,gamma
在這種新的定義下,我們可以把目標函數進行如下改寫,其中I被定義爲每個葉子上面樣本集合 ,g是一階導數,h是二階導數
這一個目標包含了T個相互獨立的單變量二次函數。我們可以定義
最終公式可以化簡爲
通過對求導等於0,可以得到
然後把最優解代入得到:
(2)打分函數計算示例
Obj代表了當我們指定一個樹的結構的時候,我們在目標上面最多減少多少。我們可以把它叫做結構分數(structure score)
(3)分裂節點
論文中給出了兩種分裂節點的方法
(1)貪心法:
每一次嘗試去對已有的葉子加入一個分割
對於每次擴展,我們還是要枚舉所有可能的分割方案,如何高效地枚舉所有的分割呢?我假設我們要枚舉所有x < a 這樣的條件,對於某個特定的分割a我們要計算a左邊和右邊的導數和。
我們可以發現對於所有的a,我們只要做一遍從左到右的掃描就可以枚舉出所有分割的梯度和GL和GR。然後用上面的公式計算每個分割方案的分數就可以了。
觀察這個目標函數,大家會發現第二個值得注意的事情就是引入分割不一定會使得情況變好,因爲我們有一個引入新葉子的懲罰項。優化這個目標對應了樹的剪枝, 當引入的分割帶來的增益小於一個閥值的時候,我們可以剪掉這個分割。大家可以發現,當我們正式地推導目標的時候,像計算分數和剪枝這樣的策略都會自然地出現,而不再是一種因爲heuristic(啓發式)而進行的操作了。
下面是論文中的算法
(2)近似算法:
主要針對數據太大,不能直接進行計算
4.自定義損失函數(指定grad、hess)
(1)損失函數
(2)grad、hess推導
(3)官方代碼
#!/usr/bin/python
import numpy as np
import xgboost as xgb
###
# advanced: customized loss function
#
print ('start running example to used customized objective function')
dtrain = xgb.DMatrix('../data/agaricus.txt.train')
dtest = xgb.DMatrix('../data/agaricus.txt.test')
# note: for customized objective function, we leave objective as default
# note: what we are getting is margin value in prediction
# you must know what you are doing
param = {'max_depth': 2, 'eta': 1, 'silent': 1}
watchlist = [(dtest, 'eval'), (dtrain, 'train')]
num_round = 2
# user define objective function, given prediction, return gradient and second order gradient
# this is log likelihood loss
def logregobj(preds, dtrain):
labels = dtrain.get_label()
preds = 1.0 / (1.0 + np.exp(-preds))
grad = preds - labels
hess = preds * (1.0-preds)
return grad, hess
# user defined evaluation function, return a pair metric_name, result
# NOTE: when you do customized loss function, the default prediction value is margin
# this may make builtin evaluation metric not function properly
# for example, we are doing logistic loss, the prediction is score before logistic transformation
# the builtin evaluation error assumes input is after logistic transformation
# Take this in mind when you use the customization, and maybe you need write customized evaluation function
def evalerror(preds, dtrain):
labels = dtrain.get_label()
# return a pair metric_name, result
# since preds are margin(before logistic transformation, cutoff at 0)
return 'error', float(sum(labels != (preds > 0.0))) / len(labels)
# training with customized objective, we can also do step by step training
# simply look at xgboost.py's implementation of train
bst = xgb.train(param, dtrain, num_round, watchlist, logregobj, evalerror)
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
- 32
- 33
- 34
- 35
- 36
- 37
- 38
- 39
- 40
- 41
- 42
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
- 32
- 33
- 34
- 35
- 36
- 37
- 38
- 39
- 40
- 41
- 42
5.Xgboost調參
由於xgboost的參數過多,這裏介紹三種思路
(1)GridSearch
(2)Hyperopt
(3)老外寫的一篇文章,操作性比較強,推薦學習一下。地址
6.工程實現優化
(1)Column Blocks and Parallelization
(2)Cache Aware Access
- A thread pre-fetches data from non-continuous memory into a continuous bu ffer.
- The main thread accumulates gradients statistics in the continuous buff er.
(3)System Tricks
- Block pre-fetching.
- Utilize multiple disks to parallelize disk operations.
- LZ4 compression(popular recent years for outstanding performance).
- Unrolling loops.
- OpenMP
7.代碼走讀
這塊非常感謝楊軍老師的無私奉獻【4】
個人看代碼用的是SourceInsight,由於xgboost有些文件是cc後綴名,可以通過以下命令修改下(默認的識別不了)
find ./ -name "*.cc" | awk -F "." '{print $2}' | xargs -i -t mv ./{}.cc ./{}.cpp
- 1
- 1
實際上,對XGBoost的源碼進行走讀分析之後,能夠看到下面的主流程:
cli_main.cc:
main()
-> CLIRunTask()
-> CLITrain()
-> DMatrix::Load()
-> learner = Learner::Create()
-> learner->Configure()
-> learner->InitModel()
-> for (i = 0; i < param.num_round; ++i)
-> learner->UpdateOneIter()
-> learner->Save()
learner.cc:
Create()
-> new LearnerImpl()
Configure()
InitModel()
-> LazyInitModel()
-> obj_ = ObjFunction::Create()
-> objective.cc
Create()
-> SoftmaxMultiClassObj(multiclass_obj.cc)/
LambdaRankObj(rank_obj.cc)/
RegLossObj(regression_obj.cc)/
PoissonRegression(regression_obj.cc)
-> gbm_ = GradientBooster::Create()
-> gbm.cc
Create()
-> GBTree(gbtree.cc)/
GBLinear(gblinear.cc)
-> obj_->Configure()
-> gbm_->Configure()
UpdateOneIter()
-> PredictRaw()
-> obj_->GetGradient()
-> gbm_->DoBoost()
gbtree.cc:
Configure()
-> for (up in updaters)
-> up->Init()
DoBoost()
-> BoostNewTrees()
-> new_tree = new RegTree()
-> for (up in updaters)
-> up->Update(new_tree)
tree_updater.cc:
Create()
-> ColMaker/DistColMaker(updater_colmaker.cc)/
SketchMaker(updater_skmaker.cc)/
TreeRefresher(updater_refresh.cc)/
TreePruner(updater_prune.cc)/
HistMaker/CQHistMaker/
GlobalProposalHistMaker/
QuantileHistMaker(updater_histmaker.cc)/
TreeSyncher(updater_sync.cc)
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
- 32
- 33
- 34
- 35
- 36
- 37
- 38
- 39
- 40
- 41
- 42
- 43
- 44
- 45
- 46
- 47
- 48
- 49
- 50
- 51
- 52
- 53
- 54
- 55
- 56
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
- 32
- 33
- 34
- 35
- 36
- 37
- 38
- 39
- 40
- 41
- 42
- 43
- 44
- 45
- 46
- 47
- 48
- 49
- 50
- 51
- 52
- 53
- 54
- 55
- 56
從上面的代碼主流程可以看到,在XGBoost的實現中,對算法進行了模塊化的拆解,幾個重要的部分分別是:
I. ObjFunction:對應於不同的Loss Function,可以完成一階和二階導數的計算。
II. GradientBooster:用於管理Boost方法生成的Model,注意,這裏的Booster Model既可以對應於線性Booster Model,也可以對應於Tree Booster Model。
III. Updater:用於建樹,根據具體的建樹策略不同,也會有多種Updater。比如,在XGBoost裏爲了性能優化,既提供了單機多線程並行加速,也支持多機分佈式加速。也就提供了若干種不同的並行建樹的updater實現,按並行策略的不同,包括:
I). inter-feature exact parallelism (特徵級精確並行)
II). inter-feature approximate parallelism(特徵級近似並行,基於特徵分bin計算,減少了枚舉所有特徵分裂點的開銷)
III). intra-feature parallelism (特徵內並行)
此外,爲了避免overfit,還提供了一個用於對樹進行剪枝的updater(TreePruner),以及一個用於在分佈式場景下完成結點模型參數信息通信的updater(TreeSyncher),這樣設計,關於建樹的主要操作都可以通過Updater鏈的方式串接起來,比較一致乾淨,算是Decorator設計模式[4]的一種應用。
XGBoost的實現中,最重要的就是建樹環節,而建樹對應的代碼中,最主要的也是Updater的實現。所以我們會以Updater的實現作爲介紹的入手點。
以ColMaker(單機版的inter-feature parallelism,實現了精確建樹的策略)爲例,其建樹操作大致如下:
updater_colmaker.cc:
ColMaker::Update()
-> Builder builder;
-> builder.Update()
-> InitData()
-> InitNewNode() // 爲可用於split的樹結點(即葉子結點,初始情況下只有一個
// 葉結點,也就是根結點) 計算統計量,包括gain/weight等
-> for (depth = 0; depth < 樹的最大深度; ++depth)
-> FindSplit()
-> for (each feature) // 通過OpenMP獲取
// inter-feature parallelism
-> UpdateSolution()
-> EnumerateSplit() // 每個執行線程處理一個特徵,
// 選出每個特徵的
// 最優split point
-> ParallelFindSplit()
// 多個執行線程同時處理一個特徵,選出該特徵
//的最優split point;
// 在每個線程裏彙總各個線程內分配到的數據樣
//本的統計量(grad/hess);
// aggregate所有線程的樣本統計(grad/hess),
//計算出每個線程分配到的樣本集合的邊界特徵值作爲
//split point的最優分割點;
// 在每個線程分配到的樣本集合對應的特徵值集合進
//行枚舉作爲split point,選出最優分割點
-> SyncBestSolution()
// 上面的UpdateSolution()/ParallelFindSplit()
//會爲所有待擴展分割的葉結點找到特徵維度的最優split
//point,比如對於葉結點A,OpenMP線程1會找到特徵F1
//的最優split point,OpenMP線程2會找到特徵F2的最
//優split point,所以需要進行全局sync,找到葉結點A
//的最優split point。
-> 爲需要進行分割的葉結點創建孩子結點
-> ResetPosition()
//根據上一步的分割動作,更新樣本到樹結點的映射關係
// Missing Value(i.e. default)和非Missing Value(i.e.
//non-default)分別處理
-> UpdateQueueExpand()
// 將待擴展分割的葉子結點用於替換qexpand_,作爲下一輪split的
//起始基礎
-> InitNewNode() // 爲可用於split的樹結點計算統計量
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
- 32
- 33
- 34
- 35
- 36
- 37
- 38
- 39
- 40
- 41
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
- 32
- 33
- 34
- 35
- 36
- 37
- 38
- 39
- 40
- 41
8.python、R對於xgboost的簡單使用
任務:二分類,存在樣本不均衡問題(scale_pos_weight可以一定程度上解讀此問題)
【Python】
【R】
9.xgboost中比較重要的參數介紹
(1)objective [ default=reg:linear ] 定義學習任務及相應的學習目標,可選的目標函數如下:
- “reg:linear” –線性迴歸。
- “reg:logistic” –邏輯迴歸。
- “binary:logistic” –二分類的邏輯迴歸問題,輸出爲概率。
- “binary:logitraw” –二分類的邏輯迴歸問題,輸出的結果爲wTx。
- “count:poisson” –計數問題的poisson迴歸,輸出結果爲poisson分佈。 在poisson迴歸中,max_delta_step的缺省值爲0.7。(used to safeguard optimization)
- “multi:softmax” –讓XGBoost採用softmax目標函數處理多分類問題,同時需要設置參數num_class(類別個數)
- “multi:softprob” –和softmax一樣,但是輸出的是ndata * nclass的向量,可以將該向量reshape成ndata行nclass列的矩陣。沒行數據表示樣本所屬於每個類別的概率。
- “rank:pairwise” –set XGBoost to do ranking task by minimizing the pairwise loss
(2)’eval_metric’ The choices are listed below,評估指標:
- “rmse”: root mean square error
- “logloss”: negative log-likelihood
- “error”: Binary classification error rate. It is calculated as #(wrong cases)/#(all cases). For the predictions, the evaluation will regard the instances with prediction value larger than 0.5 as positive instances, and the others as negative instances.
- “merror”: Multiclass classification error rate. It is calculated as #(wrong cases)/#(all cases).
- “mlogloss”: Multiclass logloss
- “auc”: Area under the curve for ranking evaluation.
- “ndcg”:Normalized Discounted Cumulative Gain
- “map”:Mean average precision
- “ndcg@n”,”map@n”: n can be assigned as an integer to cut off the top positions in the lists for evaluation.
- “ndcg-“,”map-“,”ndcg@n-“,”map@n-“: In XGBoost, NDCG and MAP will evaluate the score of a list without any positive samples as 1. By adding “-” in the evaluation metric XGBoost will evaluate these score as 0 to be consistent under some conditions.
(3)lambda [default=0] L2 正則的懲罰係數
(4)alpha [default=0] L1 正則的懲罰係數
(5)lambda_bias 在偏置上的L2正則。缺省值爲0(在L1上沒有偏置項的正則,因爲L1時偏置不重要)
(6)eta [default=0.3]
爲了防止過擬合,更新過程中用到的收縮步長。在每次提升計算之後,算法會直接獲得新特徵的權重。 eta通過縮減特徵的權重使提升計算過程更加保守。缺省值爲0.3
取值範圍爲:[0,1]
(7)max_depth [default=6] 數的最大深度。缺省值爲6 ,取值範圍爲:[1,∞]
(8)min_child_weight [default=1]
孩子節點中最小的樣本權重和。如果一個葉子節點的樣本權重和小於min_child_weight則拆分過程結束。在現行迴歸模型中,這個參數是指建立每個模型所需要的最小樣本數。該成熟越大算法越conservative
取值範圍爲: [0,∞]
10.Tip
(1)含有缺失進行訓練
dtrain = xgb.DMatrix(x_train, y_train, missing=np.nan)
11.參考文獻
(1)xgboost導讀和實戰
(2)xgboost
(3)自定義目標函數
(4)機器學習算法中GBDT和XGBOOST的區別有哪些?
(5)XGBoost: Reliable Large-scale Tree Boosting System
(6)XGBoost:
A Scalable Tree Boosting System