robin201711

机器学习算法 - 最近邻规则分类KNN

Posted on 2017-12-06 15:18 罗兵漂流记 阅读(...) 评论(...) 编辑 收藏

上节介绍了机器学习的决策树算法,它属于分类算法,本节我们介绍机器学习的另外一种分类算法:最近邻规则分类KNN,书名为k-近邻算法。

它的工作原理是:将预测的目标数据分别跟样本进行比较,得到一组距离的数据,取最近的K个数据,遵循少数服从多数的原则,从而获得目标数据的分类。

简单的说,就是【近朱者赤,近墨者者黑】,下面我们一起通过KNN算法来演示这句名言的内涵。

案例背景:

我的一个表弟,自幼聪明过人,读书的时候称得上名列前茅,父母以此为骄傲。但是好景不长,自从参加工作后,结识了几个狐朋狗友,从此进入了堕落的生活,名声也臭名远扬。

家里人经分析,主要是环境影响人,让他尽快远离他那些所谓的哥们朋友,多结识些正能量有思想有理想的人,也在此祝他成功吧~

下面是程序演示代码:

from sklearn import neighbors
import numpy as np
import matplotlib.pyplot as plt

#构造800个随机分布的点
X1 = np.random.randint(0, 500, (250, 2))
X2 = np.random.randint(500, 1000, (250, 2))
X3 = np.random.randint(0, 1000, (300, 2)) #这里添加一些杂点
X = np.concatenate((X1, X2, X3), axis=0)

#初始化数据,用0和1表示结果
y = np.ones(800, dtype=np.int)
y[0:250] = 0
y[500:650] = 0

#KNN算法核心语句,其中k=15
clf = neighbors.KNeighborsClassifier(15, weights='uniform')
clf.fit(X, y)

#显示预测结果
test_x1 = 400
test_y1 = 400
test_x2 = 600
test_y2 = 600
x = np.array([[test_x1, test_y1]])
Z = clf.predict(x)
print('蓝色方块归类:', Z)
x = np.array([[test_x2, test_y2]])
Z = clf.predict(x)
print('蓝色三角归类:', Z)

#将数据图形化显示, 结果0用红色显示,1用黑色显示
cmap_bold = ListedColormap(['#ff6666', '#919191'])
plt.scatter(X[:, 0], X[:, 1], c=y, cmap=cmap_bold, edgecolor='k', s=30)
plt.scatter([test_x1], [test_y1],marker='s', color='#224EFF', s= 300)
plt.scatter([test_x2], [test_y2], marker='^', color='#224EFF', s= 300)
plt.show()

程序运行结果:

蓝色方块归类: [0]
蓝色三角归类: [1]
 
 
-------------------------------------------------------
 
从上图中可以看到:
红色小圆:【正能量】的社会环境,计算机用0表示。
黑色小圆:【负能量】的社会环境,计算机用1表示。
蓝色方块:如果我表弟处在【正能量】的社会环境中,我们预测他会成为一个【正能量】的人。我们观察程序运行结果为0,表示归为红色这一类。
蓝色三角:如果我表弟处在【负能量】的社会环境中,我们预测他会成为一个【负能量】的人。我们观察程序运行结果为1,表示归为黑色这一类。
 
值得说明一点的是:程序中k=15,可以通过调整k的值(最好是奇数)来分别计算,看结果是否一样?
 

 OK, 本讲到此结束,后续更多精彩内容,请持续关注我的博客。

本文为原创文章,请珍惜作者的劳动成果,转载请注明出处。

原文地址:http://www.cnblogs.com/robin201711/p/7992784.html

 

相关文章: