当前位置:   article > 正文

机器学习之 K 近邻算法图像识别实战

机器学习之 K 近邻算法图像识别实战

引言

机器学习领域,K 近邻算法(K-Nearest Neighbors, KNN)是一种基于实例的学习方法,它可以根据样本之间的距离来进行分类或回归。本文将介绍如何使用 KNN 算法进行手写数字识别,并通过一个实际的例子来演示整个过程。

K 近邻算法简介

K 近邻算法的工作原理非常直观:给定一个训练数据集,对于每一个待分类的对象,找出特征空间中最接近它的 K 个训练样本,这 K 个样本的多数类别决定了待分类对象的类别。

  • 距离度量:通常使用欧氏距离作为相似性度量。
  • K 的选择:K 的值决定了分类的灵活性,较小的 K 值使得分类更加敏感,较大的 K 值则更加稳健。

实战案例:手写数字识别

准备数据

我们使用一个包含手写数字的数据集。数据集中的每个数字都已经被分割成了大小为 20x20 的图像块。

数据加载与预处理
  1. import numpy as np
  2. import cv2
  3. # 读取训练图像并转换为灰度图像
  4. img = cv2.imread('df1e4aba824b59187b50474c839c6c3.png')
  5. gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
  6. # 将训练图像分割成小图像块
  7. cells = [np.hsplit(row, 100) for row in np.vsplit(gray, 50)]
  8. x = np.array(cells)
  9. # 分割训练集和测试集
  10. train = x[:, :50]
  11. test = x[:, 50:100]
  12. # 将训练集和测试集的小图像块展平为一维数组,并转换为浮点型数据
  13. train_new = train.reshape(-1, 400).astype(np.float32)
  14. test_new = test.reshape(-1, 400).astype(np.float32)
  15. # 创建标签
  16. k = np.arange(10)
  17. labels = np.repeat(k, 250)
  18. train_labels = labels[:, np.newaxis]
  19. test_labels = np.repeat(k, 250)[:, np.newaxis]

我们可以通过调试来查看每一行代码的执行情况,例如:

创建 K 近邻分类器并训练

然后我们开始创建K近邻分类器训练

  1. # 创建 K 近邻分类器并训练
  2. knn = cv2.ml.KNearest_create()
  3. knn.train(train_new, cv2.ml.ROW_SAMPLE, train_labels)
  4. # 使用测试数据进行预测
  5. ret, result, neighbours, dist = knn.findNearest(test_new, k=5)
  6. # 计算准确率
  7. matches = result == test_labels
  8. correct = np.count_nonzero(matches)
  9. accuracy = correct * 100.0 / result.size
  10. print('当前识别KNN识别手写数字的准确率为:', accuracy)

这里的k值可以调整,当k值是5的时候, KNN识别手写数字的准确率为91.76%

导入新图像并进行预测

训练并测试好模型后我们自己导入一张20*20像素的手写图片来测试看看,我们可以使用画图工具来画一个

 如何读取文件按照上面代码的方法进行操作:

  1. # 读取新图像
  2. new_img = cv2.imread('8.png')
  3. # 将新图像转换为灰度图像
  4. new_gray = cv2.cvtColor(new_img, cv2.COLOR_BGR2GRAY)
  5. # 将新图像展平为一维数组,并转换为浮点型数据
  6. new_test = new_gray.reshape(-1, 400).astype(np.float32)
  7. # 使用训练好的 K 近邻分类器进行预测
  8. ret, result, neighbours, dist = knn.findNearest(new_test, k=5)
  9. # 输出预测结果
  10. print("预测的数字为:", result)

最后预测的结果是1

 

结论

以上就是全部内容,通过本文的介绍,我们了解了 K 近邻算法的基本原理,并通过一个实际的手写数字识别案例展示了如何使用 KNN 进行图像分类。

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号