python中knn函数 python ncnn

如何用python实现knn算法1. 数据分类:离散型标签 2. 数据回归:连续型标签 近邻算法的准则是:寻找接近新数据点的训练样本的数目,根据训练样本的信息来预测新数据点的某些信息 。
简单数字识别(knn算法)knn算法,即k-NearestNeighbor,后面的nn意思是最近邻的意思,前面的k是前k个的意思,就是找到前k个离得最近的元素
离得最近这个词具体实现有很多种,我使用的是欧式几何中的距离公式
二维中两点x(x1,y1),y(x2,y2)间距离公式为sqrt( (x1-x2)^2+(y1-y2)^2 )
推广到n维就是
x(x1,x2, … ,xn),y(y1,y2, … ,yn)
sqrt [ ∑( x[i] - y[i] )^2 ] (i=1,2, … ,n)
knn算法是要计算距离的,也就是数字之间的运算,而图像是png , jpg这种格式,并不是数字也不能直接参与运算 , 所以我们需要进行一下转换
如图所示一个数字8,首先要确定的是这一步我做的是一个最简单的转换,因为我假定背景和图之间是没有杂物的,而且整个图只有一个数字(0-9)如果遇到其他情况,比如背景色不纯或者有其他干扰图像需要重新设计转换函数
接下来就是最简单的转换 , 将图片白色部分(背景)变0,有图像的部分变1 。转换后的大小要合适,太小会影响识别准确度,太大会增加计算量 。所以我用的是书上的32*32,转换后结果如图所示
这样一来,图片就变成了能进行计算的数字了 。
接下来我们需要创建一个库,这个库里面存着0-9这些数字的各种类似上图的实例 。因为我们待识别的图像要进行对比 , 选出前k个最近的,比较的对象就是我们的库 。假定库中有0-9十个数字,每个数字各有100个这种由0和1表示的实例 , 那么我们就有了一共1000个实例 。
最后一步就是进行对比,利用开头说的欧式几何距离计算公式,首先这个32*32的方阵要转换成一个1*1024的1024维坐标表示,然后拿这个待识别的图像和库中的1000个实例进行距离计算,选出前k个距离最近的 。比如50个,这50个里面出现次数最多的数字除以50就是结果数字的概率 。比如50个里面数字8出现40次 , 那么待识别数字是8的可能性就是40/50 = 80%
个人理解:
只能识别单个数字,背景不能有干扰 。如果想多数字识别或者背景有干扰需要针对具体情况考虑具体的图像转01的方法 。
数字识别非常依赖库中的图像,库中的图像的样子严重影响图像的识别(因为我们是和库中的一一对比找出距离最近的前k个) , 所以数字的粗细 , 高低,胖瘦等待都是决定性因素,建库时一定全面考虑数字的可能样子
计算量比较大,待识别图像要和库中所有实例一一计算,如果使用32*32,就已经是1024维了 。如果库中有1000个,那就是1024维向量之间的1000次计算,图像更清晰 , 库更丰富只会使计算量更大
对于其他可以直接计算距离的数值型问题,可以用欧式距离,也可以用其他能代表距离的计算公式,对于非数值型的问题需要进行合适的转换,转换方式很重要,我觉得首先信息不能丢失,其次要精确不能模糊 , 要实现图片转换前后是一对一的关系
参考资料:机器学习实战 [美] Peter Harrington 人民邮电出版社
python源码
import numpy
import os
from PIL import Image
import heapq
from collections import Counter
def pictureconvert(filename1,filename2,size=(32,32)):
#filename1待识别图像 , filename2 待识别图像转换为01txt文件输出,size图像大小 , 默认32*32
image_file = Image.open(filename1)
image_file = image_file.resize(size)

推荐阅读