数据集准备
web站点的用户在线浏览行为及最终购买行为,每个用户的在线浏览行为信息包括:每个用户的来源网站、用户的ip位置、是否阅读FAQ、浏览网页数目。目标分类为用户类型:游客、基本用户、高级用户
算法 | 支持模型 | 数结构 | 特征选择 | 连续值处理 | 缺失值处理 | 剪枝 |
---|---|---|---|---|---|---|
ID3 | 分类 | 多叉树 | 信息增益 | 不支持 | 不支持 | 不支持 |
C4.5 | 分类 | 多叉树 | 信息增益比 | 支持 | 支持 | 支持 |
CART | 分类、回归 | 二叉树 | 基尼指数、均方差 | 支持 | 支持 | 支持 |
my_data=[['slashdot','USA','yes',18,'None'],
['google','France','yes',23,'Premium'],
['digg','USA','yes',24,'Basic'],
['kiwitobes','France','yes',23,'Basic'],
['google','UK','no',21,'Premium'],
['(direct)','New Zealand','no',12,'None'],
['(direct)','UK','no',21,'Basic'],
['google','USA','no',24,'Premium'],
['slashdot','France','yes',19,'None'],
['digg','USA','no',18,'None'],
['google','UK','no',18,'None'],
['kiwitobes','UK','no',19,'None'],
['digg','New Zealand','yes',12,'Basic'],
['slashdot','UK','no',21,'None'],
['google','UK','yes',18,'Basic'],
['kiwitobes','France','yes',19,'Basic']]
数据集第一列用户网站来源,有slashdot、google、digg、kiwitobes、(direct)五种;第二列是用户IP的位置,有USA、UK、France和New Zealand;第三列是否阅读FAQ,yes或no;第四列是网页浏览数目,有12、18、19、21、23、24;最后一列是标签,代表浏览用户类型,有游客None、基本用户Basic、高级用户Premium。
决策树前的准备工作
采用树结构:二叉树
选择属性准则:信息增益
目的:分类
- 算法思想:
生成决策树函数(训练样本)
if 训练样本为空 : 返回一个空结点
end if 训练样本信息增益为0或属性所有取值相等:返回叶子结点
else:
——for 某一个属性 in 训练样本:#遍历每一个属性
———— for 某属性的某个值 in 某一个属性:
——————根据某属性的某个值,将训练样本划分为两个,计算信息增益
————end for
——end for
——选择最大的信息增益,将这个属性按这个值进行左右分支,并回调这个函数两次。
- 代码模块功能
uniquecounts(rows):对训练样本的每一个可能的标签结果进行统计,返回dict类型。
entropy(rows):配合uniquecounts方法,进行信息熵的计算,返回float值。
divideset(rows,column,value):给定训练样本、第几列、某列中的某个值,效果是将训练样本以某列的某个值一分为二,返回俩个训练样本。
class decisionnode():初始化结点功能,用于构建树。
buildtree(rows,scoref = entropy):核心函数,参照算法思想的逻辑构写,递归生成结点。
完整代码
from math import log
def divideset(rows,column,value):
#对于给定的集合,指定列数和这列某一个值
if isinstance(value,int) or isinstance(value,float):
split_function = lambda row:row[column] >= value
else:
split_function = lambda row:row[column]==value
set1 = [row for row in rows if split_function(row)]
set2 = [row for row in rows if not split_function(row)]
return(set1,set2)
#定义节点的属性
class decisionnode:
def __init__(self,col = -1,value = None, results = None, tb = None,fb = None):
self.col = col # col是待检验的判断条件所对应的列索引值
self.value = value # value对应于为了使结果为True,当前列必须匹配的值
self.results = results #保存的是针对当前分支的结果,它是一个字典
self.tb = tb ## desision node,右子树,True对应
self.fb = fb ## desision node,左子树,False对应
# 对y的各种可能的取值出现的个数进行计数.。其他函数利用该函数来计算数据集和的混杂程度例如{'Basic': 6, 'None': 7, 'Premium': 3}
def uniquecounts(rows):
results = {}
for row in rows:
#计数结果在最后一列
r = row[len(row)-1]
if r not in results:
results[r] = 0
results[r]+=1
return results # 返回一个字典
def entropy(rows):
"""
计算当前集合的信息熵H(D)
"""
log2 = lambda x:log(x)/log(2)
# log2 = lambda x:log(2,x)
results = uniquecounts(rows)
#开始计算熵的值
ent = 0.0
for r in results.keys():
p = float(results[r])/len(rows)
ent -= p*log2(p)
return ent
# 以递归方式构造树
def buildtree(rows,scoref = entropy):
if len(rows)==0 : return decisionnode()
current_score = scoref(rows)
# 定义一些变量以记录最佳拆分条件
best_gain = 0.0
best_criteria = None
best_sets = None
column_count = len(rows[0]) - 1
for col in range(0,column_count): #遍历所有属性列
#在当前列中生成一个由不同值构成的序列
column_values = set({}) #用集合存放当前列有哪些不同值
for row in rows:
column_values.add(row[col])
# print(column_values)
#根据这一列中的每个值,尝试对数据集进行拆分
for value in column_values: #某个属性可能的所有值,比如第一列:(direct)、'digg'、 'google'、 'kiwitobes'、 'slashdot'
(set1,set2) = divideset(rows,col,value)
# 信息增益
p = float(len(set1))/len(rows)
gain = current_score - p*scoref(set1) - (1-p)*scoref(set2)
if gain>best_gain and len(set1)>0 and len(set2)>0:
best_gain = gain
best_criteria = (col,value) #结点分裂的属性
best_sets = (set1,set2)
#创建子分支
if best_gain>0:
trueBranch = buildtree(best_sets[0]) #递归调用
falseBranch = buildtree(best_sets[1])
return decisionnode(col = best_criteria[0],value = best_criteria[1],
tb = trueBranch,fb = falseBranch)
else:
print(uniquecounts(rows))
return decisionnode(results = uniquecounts(rows)) #{'Basic': 6, 'None': 7, 'Premium': 3}
tree = buildtree(my_data)
画出生成的二叉树
#绘制决策树
from PIL import Image, ImageDraw
# 获取树的显示宽度,即有多少个叶子节点
def getwidth(tree):
if tree.tb==None and tree.fb==None: return 1
return getwidth(tree.tb)+getwidth(tree.fb)
# 获取树的显示深度(高度)
def getdepth(tree):
if tree.tb==None and tree.fb==None: return 0
return max(getdepth(tree.tb),getdepth(tree.fb))+1
# 绘制树形图
def drawtree(tree,jpeg='tree.jpg'):
w=getwidth(tree)*100
h=getdepth(tree)*100+120
img=Image.new('RGB',(w,h),(255,255,255))
draw=ImageDraw.Draw(img)
drawnode(draw,tree,w/2,20) #根节点座标
img.save(jpeg,'JPEG')
# 迭代画树的节点
def drawnode(draw,tree,x,y):
if tree.results==None:
# 得到每个分支的宽度
w1=getwidth(tree.fb)*100
w2=getwidth(tree.tb)*100
# 确定此节点所要占据的总空间
left=x-(w1+w2)/2
right=x+(w1+w2)/2
# 绘制判断条件字符串
draw.text((x-20,y-10),str(tree.col)+':'+str(tree.value),(0,0,0))
# 绘制到分支的连线
draw.line((x,y,left+w1/2,y+100),fill=(255,0,0))
draw.line((x,y,right-w2/2,y+100),fill=(255,0,0))
# 绘制分支的节点
drawnode(draw,tree.fb,left+w1/2,y+100)
drawnode(draw,tree.tb,right-w2/2,y+100)
else:
txt=' \n'.join(['%s:%d'%v for v in tree.results.items()])
draw.text((x-20,y),txt,(0,0,0))
drawtree(tree,jpeg='tree.jpg')
预测
def classify(observation,tree):
if tree.results!=None:
return tree.results
else:
v=observation[tree.col]
branch=None
if isinstance(v,int) or isinstance(v,float):
if v>=tree.value: branch=tree.tb #走右子树
else: branch=tree.fb #走左子树
else:
if v==tree.value: branch=tree.tb
else: branch=tree.fb
return classify(observation,branch)
classify(['google','France','yes',23],tree)
疑问:为什么对于数字的属性结点,是大于等于走右子树,而不是小于等于?
使用基尼指数
def giniimpurity(rows):
total = len(rows)
counts = uniquecounts(rows)
imp = 0
for k1 in counts.keys():
p1 = float(counts[k1])/total
imp+= p1*(1-p1)
return imp
剪枝处理
剪枝是决策树学习算法对付”过拟合“的主要手段,基本策略有:预剪枝”和“后剪枝”,这里介绍后剪枝。
找到划分为叶子节点的属性结点,判断划分前后的验证集的精度是否有提高,设定一个阈值,提高的精度大于这个阈值就支持剪枝,否则合并这些分支。
下面利用熵最为评判依据
def prune(tree,mingain):
# 如果分支不是叶节点,则对其进行剪枝操作
if tree.tb.results==None:
prune(tree.tb,mingain)
if tree.fb.results==None:
prune(tree.fb,mingain)
# 如果两个自分支都是叶节点,则判断他们是否需要合并
if tree.tb.results!=None and tree.fb.results!=None:
# 构建合并后的数据集
tb,fb=[],[]
for v,c in tree.tb.results.items():
tb+=[[v]]*c
for v,c in tree.fb.results.items():
fb+=[[v]]*c
# 检查熵的减少情况
delta=entropy(tb+fb)-(entropy(tb)+entropy(fb)/2)
if delta<mingain:
# 合并分支
tree.tb,tree.fb=None,None
tree.results=uniquecounts(tb+fb)