赞
踩
在机器学习领域,K 近邻算法(K-Nearest Neighbors, KNN)是一种基于实例的学习方法,它可以根据样本之间的距离来进行分类或回归。本文将介绍如何使用 KNN 算法进行手写数字识别,并通过一个实际的例子来演示整个过程。
K 近邻算法的工作原理非常直观:给定一个训练数据集,对于每一个待分类的对象,找出特征空间中最接近它的 K 个训练样本,这 K 个样本的多数类别决定了待分类对象的类别。
我们使用一个包含手写数字的数据集。数据集中的每个数字都已经被分割成了大小为 20x20 的图像块。
- import numpy as np
- import cv2
-
- # 读取训练图像并转换为灰度图像
- img = cv2.imread('df1e4aba824b59187b50474c839c6c3.png')
- gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
-
- # 将训练图像分割成小图像块
- cells = [np.hsplit(row, 100) for row in np.vsplit(gray, 50)]
- x = np.array(cells)
-
- # 分割训练集和测试集
- train = x[:, :50]
- test = x[:, 50:100]
-
- # 将训练集和测试集的小图像块展平为一维数组,并转换为浮点型数据
- train_new = train.reshape(-1, 400).astype(np.float32)
- test_new = test.reshape(-1, 400).astype(np.float32)
-
- # 创建标签
- k = np.arange(10)
- labels = np.repeat(k, 250)
- train_labels = labels[:, np.newaxis]
- test_labels = np.repeat(k, 250)[:, np.newaxis]

我们可以通过调试来查看每一行代码的执行情况,例如:
然后我们开始创建K近邻分类器训练
- # 创建 K 近邻分类器并训练
- knn = cv2.ml.KNearest_create()
- knn.train(train_new, cv2.ml.ROW_SAMPLE, train_labels)
-
- # 使用测试数据进行预测
- ret, result, neighbours, dist = knn.findNearest(test_new, k=5)
-
- # 计算准确率
- matches = result == test_labels
- correct = np.count_nonzero(matches)
- accuracy = correct * 100.0 / result.size
- print('当前识别KNN识别手写数字的准确率为:', accuracy)
这里的k值可以调整,当k值是5的时候, KNN识别手写数字的准确率为91.76%
训练并测试好模型后我们自己导入一张20*20像素的手写图片来测试看看,我们可以使用画图工具来画一个
如何读取文件按照上面代码的方法进行操作:
- # 读取新图像
- new_img = cv2.imread('8.png')
-
- # 将新图像转换为灰度图像
- new_gray = cv2.cvtColor(new_img, cv2.COLOR_BGR2GRAY)
-
- # 将新图像展平为一维数组,并转换为浮点型数据
- new_test = new_gray.reshape(-1, 400).astype(np.float32)
-
- # 使用训练好的 K 近邻分类器进行预测
- ret, result, neighbours, dist = knn.findNearest(new_test, k=5)
-
- # 输出预测结果
- print("预测的数字为:", result)
最后预测的结果是1
以上就是全部内容,通过本文的介绍,我们了解了 K 近邻算法的基本原理,并通过一个实际的手写数字识别案例展示了如何使用 KNN 进行图像分类。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。