决策树--ID3算法

    ID3算法也叫决策树归纳算法,不是很使用,但是是决策树算法的开山之作,这里简单说下

在信息论中,熵(entropy)是随机变量不确定性的度量,也就是熵越大,则随机变量的不确定性越大。设X是一个取有限个值得离散随机变量,其概率分布为:

则随机变量X的熵定义为:

条件熵

设有随机变量(X, Y),其联合概率分布为:

条件熵H(Y|X)表示在已知随机变量X的条件下,随机变量Y的不确定性。随机变量X给定的条件下随机变量Y的条件熵H(Y|X),定义为X给定条件下Y的条件概率分布的熵对X的数学期望:

当熵和条件熵中的概率由数据估计得到时(如极大似然估计),所对应的熵与条件熵分别称为经验熵和经验条件熵。

表示获取信息的不确定性大小。

信息增益

定义:信息增益表示由于得知特征A的信息后儿时的数据集D的分类不确定性减少的程度,定义为:

Gain(D,A) = H(D) – H(D|A)

             即集合D的经验熵H(D)与特征A给定条件下D的经验条件熵H(H|A)之差。

理解:选择划分后信息增益大的作为划分特征,说明使用该特征后划分得到的子集纯度越高,即不确定性越小。因此我们总是选择当前使得信息增益最大的特征来划分数据集。

缺点:信息增益偏向取值较多的特征(原因:当特征的取值较多时,根据此特征划分更容易得到纯度更高的子集,因此划分后的熵更低,即不确定性更低,因此信息增益更大)

算法原理

输入:训练数据集D,特征集A,阈值ε;

输出:决策树T.

  1. 树以代表训练样本的单个结点开始(步骤1)。
  2. 如果样本都在同一个类,则该结点成为树叶,并用该类标号(步骤2 3)。
  3. 否则,算法使用称为信息增益的基于熵的度量作为启发信息,选择能够最好地将样本分类的属性(步骤6)。该属性成为该结点的测试判定属性(步骤7)。在算法的该版本中,
  4. 所有的属性都是分类的,即离散值。连续属性必须离散化。
  5. 对测试属性的每个已知的值,创建一个分枝,并据此划分样本(步骤8-10)。
  6. 算法使用同样的过程,递归地形成每个划分上的样本判定树。一旦一个属性出现在一个结点上,就不必该结点的任何后代上考虑它(步骤13)。
  7. 递归划分步骤仅当下列条件之一成立停止:
  8. (a) 给定结点的所有样本属于同一类(步骤2 3)。
  9. (b) 没有剩余属性可以用来进一步划分样本(步骤4)。在此情况下,使用多数表决(步骤5)。
  10. 这涉及将给定的结点转换成树叶,并用样本中的多数所在的类标记它。替换地,可以存放结
  11. 点样本的类分布。
  12. (c) 分枝
  13. test_attribute = a i 没有样本(步骤11)。在这种情况下,以 samples 中的多数类
  14. 创建一个树叶(步骤12

Python代码实现

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章