赞
踩
一基础知识
除了在Matlab中使用PRTools工具箱中的SVM算法,Python中也可以使用支持向量机做分类(做分类有什么用)。因为Python中的sklearn库也集成了SVM算法。
1导入sklearn算法包
Scikit-Learn库已经实现了所有基本机器学习的算法,具体使用详见官方文档说明:http://scikit-learn.org/stable/auto_examples/index.html#support-vector-machines。
skleran中集成了许多算法,其导入包的方式如下所示,
逻辑回归:from sklearn.linear_model import LogisticRegression
朴素贝叶斯:from sklearn.naive_bayes import GaussianNB
K-近邻:from sklearn.neighbors import KNeighborsClassifier
决策树:from sklearn.tree import DecisionTreeClassifier
支持向量机:from sklearn import svm
2关于SVM的基础理论知识
[https://blog.csdn.net/u012679707/article/details/80501358]
二,程序
准备:
数据集
导入SVM模块
python 2.7
步骤:
1.读取数据集
2.划分训练样本与测试样本
3.训练SVM分类器
4.计算分类准确率
5.绘制图像
因为Python中的sklearn库也集成了SVM算法,所以在Python中一样可以使用支持向量机做分类。
【注意】本文的运行环境是windows+Pycharm+python3.6。
Scikit-Learn库基本实现了所有的机器学习算法,具体使用详见官方文档说明:
http://scikit-learn.org/stable/auto_examples/index.html
因为本文是基于sklearn包,所以需先在python中下载sklearn包,网上有很多教程,在此不再叙述。
本文用的数据集为Iris.data可从UCI数据库中下载,http://archive.ics.uci.edu/ml/datasets/Iris
Iris.data的数据格式如下:共5列,前4列为样本特征,第5列为类别,分别有三种类别Iris-setosa, Iris-versicolor, Iris-virginica。
注意:因为在分类中类别标签必须为数字量,所以应将Iris.data中的第5列的类别(字符串)转换为num.
程序如下
# -*- coding:utf-8 -*- import matplotlib.pyplot as plt from sklearn import svm import numpy as np import matplotlib import sklearn from sklearn.model_selection import train_test_split import pandas as pd import sys # reload(sys) # sys.setdefaultencoding('utf-8') import importlib importlib.reload(sys) # define converts(字典) def Iris_label(s): it = {b'Iris-setosa': 0, b'Iris-versicolor': 1, b'Iris-virginica': 2} return it[s] # 1.读取数据集 path = r'F:\Lian\iris.data' # 数据文件路径 data = np.loadtxt(path, dtype=float, delimiter=',', converters={4: Iris_label}) # converters={4:Iris_label}中“4”指的是第5列:将第五列的str转化为label(number) # print(data.shape) # 2.划分数据与标签 x, y = np.split(data, indices_or_sections=(4,), axis=1) # x为数据,y为标签 x = x[:, 0:2] train_data, test_data, train_label, test_label = train_test_split(x, y, random_state=1, train_size=0.6, test_size=0.4) # sklearn.model_selection. # print(train_data.shape) # 3.训练svm分类器 classifier = svm.SVC(C=2, kernel='rbf', gamma=10, decision_function_shape='ovo') # 一对多 classifier.fit(train_data, train_label.ravel()) # ravel函数在降维时默认是行序优先 # 4.计算svc分类器的准确率 print("训练集:", classifier.score(train_data, train_label)) print("测试集:", classifier.score(test_data, test_label)) # 也可直接调用accuracy_score方法计算准确率 from sklearn.metrics import accuracy_score tra_label = classifier.predict(train_data) # 训练集的预测标签 tes_label = classifier.predict(test_data) # 测试集的预测标签 print("训练集:", accuracy_score(train_label, tra_label)) print("测试集:", accuracy_score(test_label, tes_label)) # 查看决策函数 print('train_decision_function:\n', classifier.decision_function(train_data)) print('predict_result:\n', classifier.predict(train_data)) # 5.绘制图形 # 确定坐标轴范围 x1_min, x1_max = x[:, 0].min(), x[:, 0].max() # 第0维特征的范围 x2_min, x2_max = x[:, 1].min(), x[:, 1].max() # 第1维特征的范围 x1, x2 = np.mgrid[x1_min:x1_max:200j, x2_min:x2_max:200j] # 生成网络采样点 grid_test = np.stack((x1.flat, x2.flat), axis=1) # 测试点 # 指定默认字体 matplotlib.rcParams['font.sans-serif'] = ['SimHei'] # 设置颜色 cm_light = matplotlib.colors.ListedColormap(['#A0FFA0', '#FFA0A0', '#A0A0FF']) cm_dark = matplotlib.colors.ListedColormap(['g', 'r', 'b']) grid_hat = classifier.predict(grid_test) # 预测分类值 grid_hat = grid_hat.reshape(x1.shape) # 使之与输入的形状相同 plt.pcolormesh(x1, x2, grid_hat, cmap=cm_light) # 预测值得显示 plt.scatter(x[:, 0], x[:, 1], c=y[:, 0], s=30, cmap=cm_dark) # 样本 plt.scatter(test_data[:, 0], test_data[:, 1], c=test_label[:, 0], s=30, edgecolors='k', zorder=2, cmap=cm_dark) # 圈中测试集样本点 plt.xlabel(u"花萼长度", fontsize=13) plt.ylabel(u"花萼宽度", fontsize=13) plt.xlim(x1_min, x1_max) plt.ylim(x2_min, x2_max) plt.title(u"鸢尾花SVM二特征分类") plt.show()
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。