分类算法——决策树算法及其R实现

决策树定义

以鸢尾花为例子来说明:

 分类算法——决策树算法及其R实现

观察上图,判决鸢尾花的思考过程可以这么来描述:花瓣的长度小于2.4cm的是setosa(图中绿色的分类),长度大于2.4cm的呢?可以通过宽度来判别,宽度小于1.8cm的是versicolor(图中红色的分类),其余的就是virginica(图中黑色的分类)

用图形来形象的展示上述思考过程便得到了下图一棵决策树:

分类算法——决策树算法及其R实现

这种从数据产生决策树的机器学习技术叫做决策树学习, 通俗点说就是决策树,说白了,这是一种依托于分类、训练上的预测树,根据已知预测、归类未来。

之前的k-近邻算法也可以完成很多分类任务,但是他的缺点就是含义不清,说不清数据的内在逻辑,而决策树则很好地解决了这个问题,他十分好理解。从存储的角度来说,决策树解放了存储训练集的空间,毕竟与一棵树的存储空间相比,训练集的存储需求空间太大了。

决策树的构建

一、ID3的想法与实现

构造基本步骤

1)生成树阶段。选取部分受训数据建立决策树,决策树是按广度优先建立直到每个叶节点包括相同的类标记为止。

2)决策树修剪阶段。用剩余数据检验决策树,如果所建立的决策树不能正确回答所研究的问题,我们要对决策树进行修剪直到建立一棵正确的决策树。这样在决策树每个内部节点处进行属性值的比较,在叶节点得到结论。从根节点到叶节点的一条路径就对应着一条规则,整棵决策树就对应着一组表达式规则。

问题:我们如何确定起决定作用的划分变量。

用鸢尾花的例子来说这个问题思考的必要性。使用不同的思考方式,我们不难发现下面的决策树也是可以把鸢尾花分成3类的。

为了找到决定性特征,划分出最佳结果,我们必须认真评估每个特征。ID3算法以信息熵和信息增益以衡量标准。其他划分的办法为信息增益率和基尼不纯指数,对应的算法为C4.5CART

信息熵(Entropy)主要指信息的混乱程度,变量的不确定性越大,熵的值也就越大,熵的公式可以表示为

分类算法——决策树算法及其R实现

信息增益(Information gain)指的是划分前后熵的变化,可以用下面公式表示:

分类算法——决策树算法及其R实现

1 计算给定数据集的熵

2 按照给定特征划分数据集

3 选择最佳划分(基于熵增益) 

4 递归构建决策树

二、C4.5算法

C4.5是ID3算法的扩展

C4.5算法描述

1)创建根节点N;

2IF T都属于同一类C,则返回N为叶节点,标记为类C

3IF T_attributelist为空或T中所剩的样本数少于某给定值则返回N为叶节点,标记为T中出现最多的类;

4FOR each T_attributelist中的属性计算信息增益率information gain ratio;

5N的测试属性test_attribute=T_attributelist中具有最高信息增益率的属性;

6IF测试属性为连续型则找到该属性的分割阀值;

7FOR each 由节点N长出的新叶节点{

                IF 该叶节点对应的样本子集T’为空

                      则分裂该叶节点生成一个新叶节点,将其标记为T中出现最多的类;

                 ELSE在该叶节点上执行C4.5formtree(T,T_attributelist),对它继续分裂;

 }

8)计算每个节点的分类错误,进行树剪枝。

 

以鸢尾花数据为例子,使用C4.5算法得到的分类树见下图:

分类算法——决策树算法及其R实现

三、 CART算法

分类与回归树(CART——Classification And Regression Tree)) ,二叉决策树

CART算法描述

1)创建根节点N;

2)为N分配类别;

3IF T都属于同一类别OR T中只剩一个样本

                 则返回N为叶节点,为其分配类别;

4FOR each T_attributelist 中的属性

                 执行该属性上的一个划分,计算此次划分的GINI系数;

5N的测试属性test_attribute=T_attributelist中具有最小GINI系数的属性;

6)划分TT1T2两个子集;

7)调用cartformtree(T1);

8)调用cartformtree(T2)

 分类算法——决策树算法及其R实现
 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章