有了決策樹,爲什麼還需要隨機森林?

決策樹與隨機森林,這2個概念好像經常會在一起被提起。對於小白的我來說,也是很懵。
於是,我找了博文,並請教了周邊的大神。
得出一點通俗且易理解的小結論,在這裏記錄一下:

  1. 決策樹只有一棵樹,隨機森林有多棵樹。
  2. 決策樹在生成的過程中,會給他設定前剪枝或者後剪枝,從而導致樹被修剪。而隨機森林由於有多棵樹,也不會被修剪。

在這裏,我們將提供兩個直觀的原因,即隨機森林優於單一決策樹。
1、特徵空間中的分辨率更高樹木未被修剪。雖然像CART這樣的單個決策樹經常被修剪,但隨機林的樹完全成長並且未經過修剪,因此,自然地,特徵空間被分成更多和更小的區域。
2、樹木多種多樣。在隨機樣本上學習每個隨機林的樹,並且在每個節點處,考慮用於分裂的隨機特徵集。
(引用博文:https://cloud.tencent.com/developer/news/344165,侵刪)

另附上決策樹與隨機森林的解釋:
https://www.cnblogs.com/fionacai/p/5894142.html

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章