Python手写决策树算法

数据集准备

web站点的用户在线浏览行为及最终购买行为,每个用户的在线浏览行为信息包括:每个用户的来源网站、用户的ip位置、是否阅读FAQ、浏览网页数目。目标分类为用户类型:游客、基本用户、高级用户

算法 支持模型 数结构 特征选择 连续值处理 缺失值处理 剪枝
ID3 分类 多叉树 信息增益 不支持 不支持 不支持
C4.5 分类 多叉树 信息增益比 支持 支持 支持
CART 分类、回归 二叉树 基尼指数、均方差 支持 支持 支持
my_data=[['slashdot','USA','yes',18,'None'],
        ['google','France','yes',23,'Premium'],
        ['digg','USA','yes',24,'Basic'],
        ['kiwitobes','France','yes',23,'Basic'],
        ['google','UK','no',21,'Premium'],
        ['(direct)','New Zealand','no',12,'None'],
        ['(direct)','UK','no',21,'Basic'],
        ['google','USA','no',24,'Premium'],
        ['slashdot','France','yes',19,'None'],
        ['digg','USA','no',18,'None'],
        ['google','UK','no',18,'None'],
        ['kiwitobes','UK','no',19,'None'],
        ['digg','New Zealand','yes',12,'Basic'],
        ['slashdot','UK','no',21,'None'],
        ['google','UK','yes',18,'Basic'],
        ['kiwitobes','France','yes',19,'Basic']]

数据集第一列用户网站来源,有slashdot、google、digg、kiwitobes、(direct)五种;第二列是用户IP的位置,有USA、UK、France和New Zealand;第三列是否阅读FAQ,yes或no;第四列是网页浏览数目,有12、18、19、21、23、24;最后一列是标签,代表浏览用户类型,有游客None、基本用户Basic、高级用户Premium。

决策树前的准备工作

采用树结构:二叉树
选择属性准则:信息增益
目的:分类

  • 算法思想:

生成决策树函数(训练样本)
if 训练样本为空 : 返回一个空结点
end if 训练样本信息增益为0或属性所有取值相等:返回叶子结点
else:
——for 某一个属性 in 训练样本:#遍历每一个属性
———— for 某属性的某个值 in 某一个属性:
——————根据某属性的某个值,将训练样本划分为两个,计算信息增益
————end for
——end for
——选择最大的信息增益,将这个属性按这个值进行左右分支,并回调这个函数两次。

  • 代码模块功能

uniquecounts(rows):对训练样本的每一个可能的标签结果进行统计,返回dict类型。
entropy(rows):配合uniquecounts方法,进行信息熵的计算,返回float值。
divideset(rows,column,value):给定训练样本、第几列、某列中的某个值,效果是将训练样本以某列的某个值一分为二,返回俩个训练样本。
class decisionnode():初始化结点功能,用于构建树。
buildtree(rows,scoref = entropy):核心函数,参照算法思想的逻辑构写,递归生成结点。

完整代码

from math import log
def divideset(rows,column,value):
    #对于给定的集合,指定列数和这列某一个值
    if isinstance(value,int) or isinstance(value,float):
        split_function = lambda row:row[column] >= value
    else:
        split_function = lambda row:row[column]==value
    set1 = [row for row in rows if split_function(row)]
    set2 = [row for row in rows if not split_function(row)]
    return(set1,set2)
#定义节点的属性
class decisionnode:
    def __init__(self,col = -1,value = None, results = None, tb = None,fb = None):
        self.col = col   # col是待检验的判断条件所对应的列索引值
        self.value = value # value对应于为了使结果为True,当前列必须匹配的值
        self.results = results #保存的是针对当前分支的结果,它是一个字典
        self.tb = tb ## desision node,右子树,True对应
        self.fb = fb ## desision node,左子树,False对应
# 对y的各种可能的取值出现的个数进行计数.。其他函数利用该函数来计算数据集和的混杂程度例如{'Basic': 6, 'None': 7, 'Premium': 3}
def uniquecounts(rows):
    results = {}
    for row in rows:
        #计数结果在最后一列
        r = row[len(row)-1]
        if r not in results:
            results[r] = 0
        results[r]+=1
    return results # 返回一个字典
def entropy(rows):
    """
    计算当前集合的信息熵H(D)
    """  
    log2 = lambda x:log(x)/log(2)
#     log2 = lambda x:log(2,x)
    results = uniquecounts(rows)
    #开始计算熵的值
    ent = 0.0
    for r in results.keys():
        p = float(results[r])/len(rows)
        ent -=  p*log2(p)
    return ent
# 以递归方式构造树

def buildtree(rows,scoref = entropy):
    if len(rows)==0 : return decisionnode()
    current_score = scoref(rows)
    
    # 定义一些变量以记录最佳拆分条件
    best_gain = 0.0
    best_criteria = None
    best_sets = None
    
    column_count = len(rows[0]) - 1
    for col in range(0,column_count): #遍历所有属性列
        #在当前列中生成一个由不同值构成的序列
        column_values = set({})  #用集合存放当前列有哪些不同值
        for row in rows:
            column_values.add(row[col]) 
#         print(column_values)
        #根据这一列中的每个值,尝试对数据集进行拆分
        for value in column_values:  #某个属性可能的所有值,比如第一列:(direct)、'digg'、 'google'、 'kiwitobes'、 'slashdot'
            (set1,set2) = divideset(rows,col,value)
            
            # 信息增益
            p = float(len(set1))/len(rows)
            gain = current_score - p*scoref(set1) - (1-p)*scoref(set2)
            if gain>best_gain and len(set1)>0 and len(set2)>0:
                best_gain = gain
                best_criteria = (col,value)  #结点分裂的属性
                best_sets = (set1,set2)
                
    #创建子分支
    if best_gain>0:
        trueBranch = buildtree(best_sets[0])  #递归调用
        falseBranch = buildtree(best_sets[1])
        return decisionnode(col = best_criteria[0],value = best_criteria[1],
                            tb = trueBranch,fb = falseBranch)
    else:
        print(uniquecounts(rows))
        return decisionnode(results = uniquecounts(rows)) #{'Basic': 6, 'None': 7, 'Premium': 3}
tree = buildtree(my_data)

画出生成的二叉树

#绘制决策树
from PIL import Image, ImageDraw

# 获取树的显示宽度,即有多少个叶子节点
def getwidth(tree):
    if tree.tb==None and tree.fb==None: return 1
    return getwidth(tree.tb)+getwidth(tree.fb)

# 获取树的显示深度(高度)
def getdepth(tree):
    if tree.tb==None and tree.fb==None: return 0
    return max(getdepth(tree.tb),getdepth(tree.fb))+1

# 绘制树形图
def drawtree(tree,jpeg='tree.jpg'):
    w=getwidth(tree)*100
    h=getdepth(tree)*100+120

    img=Image.new('RGB',(w,h),(255,255,255))
    draw=ImageDraw.Draw(img)

    drawnode(draw,tree,w/2,20)  #根节点座标
    img.save(jpeg,'JPEG')

# 迭代画树的节点
def drawnode(draw,tree,x,y):
    if tree.results==None:
        # 得到每个分支的宽度
        w1=getwidth(tree.fb)*100
        w2=getwidth(tree.tb)*100

        # 确定此节点所要占据的总空间
        left=x-(w1+w2)/2
        right=x+(w1+w2)/2

        # 绘制判断条件字符串
        draw.text((x-20,y-10),str(tree.col)+':'+str(tree.value),(0,0,0))

        # 绘制到分支的连线
        draw.line((x,y,left+w1/2,y+100),fill=(255,0,0))
        draw.line((x,y,right-w2/2,y+100),fill=(255,0,0))

        # 绘制分支的节点
        drawnode(draw,tree.fb,left+w1/2,y+100)
        drawnode(draw,tree.tb,right-w2/2,y+100)
    else:
        txt=' \n'.join(['%s:%d'%v for v in tree.results.items()])
        draw.text((x-20,y),txt,(0,0,0))
drawtree(tree,jpeg='tree.jpg')


预测

def classify(observation,tree):
    if tree.results!=None:
        return tree.results
    else:
        v=observation[tree.col]
        branch=None
        if isinstance(v,int) or isinstance(v,float):
            if v>=tree.value: branch=tree.tb #走右子树
            else: branch=tree.fb #走左子树
        else:
            if v==tree.value: branch=tree.tb
            else: branch=tree.fb
        return classify(observation,branch)
classify(['google','France','yes',23],tree)

疑问:为什么对于数字的属性结点,是大于等于走右子树,而不是小于等于?

使用基尼指数

在这里插入图片描述

def giniimpurity(rows):
    total = len(rows)
    counts = uniquecounts(rows)
    imp = 0
    for k1 in counts.keys():
        p1 = float(counts[k1])/total
        imp+= p1*(1-p1)
    return imp

剪枝处理

剪枝是决策树学习算法对付”过拟合“的主要手段,基本策略有:预剪枝”和“后剪枝”,这里介绍后剪枝。
找到划分为叶子节点的属性结点,判断划分前后的验证集的精度是否有提高,设定一个阈值,提高的精度大于这个阈值就支持剪枝,否则合并这些分支。
下面利用熵最为评判依据

def prune(tree,mingain):
    # 如果分支不是叶节点,则对其进行剪枝操作
    if tree.tb.results==None:
        prune(tree.tb,mingain)
    if tree.fb.results==None:
        prune(tree.fb,mingain)

    # 如果两个自分支都是叶节点,则判断他们是否需要合并
    if tree.tb.results!=None and tree.fb.results!=None:
        # 构建合并后的数据集
        tb,fb=[],[]
        for v,c in tree.tb.results.items():
            tb+=[[v]]*c
        for v,c in tree.fb.results.items():
            fb+=[[v]]*c

        # 检查熵的减少情况
        delta=entropy(tb+fb)-(entropy(tb)+entropy(fb)/2)

        if delta<mingain:
            # 合并分支
            tree.tb,tree.fb=None,None
            tree.results=uniquecounts(tb+fb)
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章