k-近邻算法
-
优点:精度高、对异常值不敏感、无数据输入假定
-
缺点:计算复杂性高、空间复杂度高
-
适用数据范围:数值型和标称型
(标称型:目标变量的结果只在有限目标集中取值 ,如 真与假;
数值型:目标变量可以从无限的数值中取值,主要用于回归分析。) -
K-近邻算法(KNN)工作原理:存在一个样本数据集合,也称训练样本集,并且样本集中每个数据都存在标签,即我们知道样本数据集每一数据与所属分类的对应关系。输入没有标签的新数据后,将新数据的每个特征样本集数据对应的特征进行比较,然后算出提取样本集中特征最相似的分类标签。一般来说,我们只选择样本数据集中前k个最相似的数据,这就是k-近邻算法中k的出处,通常k是不大于20的整数。最后,选择k个最相似数据中出现次数最多的分类,作为新数据的分类。
-
k-近邻算法的一般流程:
(1)收集数据:可以使用任何方法。
(2)准备数据:距离计算所需要的数值,最好是结构化的数据格式。
(3)分析数据:可以使用任何方法
(4)训练算法(此步骤不适用于k-近邻算法)
(5)测试算法:计算错误率
(6)使用算法:首先需要输入样本数据和结构化的输出结果,然后运行k-近邻算法判定输入数据分别属于哪个分类,最后应用对计算出的分类执行后续的处理。
k-近邻算法
欧式距离公式
'''
numpy.tile的用法参考
https://blog.csdn.net/xiahei_d/article/details/52749395
'''
def classify0(inX , dataSet ,labels ,k):
# 获取数据集的大小 取的一维数组的大小
dataSetSize =dataSet.shape[0]
#计算距离 欧式距离格式
diffMat = tile( inX ,(dataSetSize,1))-dataSet
sqDiffMat =diffMat **2
sqDistances = sqDiffMat.sum( axis =1 )
distances =sqDistances**0.5
#根据diatances排序
#argsort是numpy里的排序方法
sortedDistances = distances.argsort()
classCount ={ }
#选择距离最小的k个点
for i in range(k):
#标记当前i个的标签 进行分类
voteIlabel = labels[sortedDistances[i]]
classCount[voteIlabel] = classCount.get( voteIlabel,0)+ 1
#根据标签进行分类
sortedClassCount = sorted(classCount.items(),key=operator.itemgetter(1),reverse=True)
return sortedClassCount[0][0]