当前位置:   article > 正文

机器学习集成学习——Adaboost分离器算法_adaboost回归(adaboost.r)是一种集成学习算法,旨在提高回归算法的准确性。它通过

adaboost回归(adaboost.r)是一种集成学习算法,旨在提高回归算法的准确性。它通过

系列文章目录

 机器学习之SVM分类器介绍——核函数、SVM分类器的使用

 机器学习的一些常见算法介绍【线性回归,岭回归,套索回归,弹性网络】

机器学习相关概念思维导图

文章目录

系列文章目录

前言

Adaboost算法的简单介绍

Adaboost算法相关函数简介

案例介绍

1、简单的Adaboost回归的示例

2、案例二

总结


前言

本文主要介绍Adaboost集成学习算法,以及一些案例举例

Adaboost算法的简单介绍

Adaboost是一种集成学习算法,用于构建一个强大的分类器或回归器。在Adaboost中,每个弱分类器/回归器都是由弱学习算法(例如决策树或线性回归)构成的。每个弱分类器/回归器都对样本进行分类或预测,并根据分类/预测的准确性进行加权。然后,所有弱分类器/回归器的加权和被用作最终分类器/回归器。Adaboost算法通过迭代地训练弱分类器/回归器,并调整样本的权重来提高整体模型的准确性。

Adaboost算法相关函数简介

Adaboost的相关函数包括AdaBoostClassifier和AdaBoostRegressor。这些函数都可以在sklearn.ensemble中找到。其中AdaBoostClassifier用于分类问题,AdaBoostRegressor用于回归问题。这些函数都包含许多参数,例如弱学习器,学习率和迭代次数。

案例介绍

1、简单的Adaboost回归的示例

  1. import numpy as np
  2. from sklearn.ensemble import AdaBoostRegressor
  3. from sklearn.tree import DecisionTreeRegressor
  4. # 生成训练数据
  5. X = np.linspace(-np.pi, np.pi, 200)
  6. y = np.sin(X)
  7. # 创建决策树回归器
  8. dt = DecisionTreeRegressor(max_depth=2)
  9. # 创建Adaboost回归器
  10. abr = AdaBoostRegressor(dt, n_estimators=100, learning_rate=0.1)
  11. # 训练模型
  12. abr.fit(X.reshape(-1, 1), y)
  13. # 绘制结果
  14. import matplotlib.pyplot as plt
  15. plt.scatter(X, y, c='b', label='data')
  16. plt.plot(X, abr.predict(X.reshape(-1, 1)), c='r', label='Adaboost Regressor')
  17. plt.legend()
  18. plt.show()

在这个例子中,我们使用Adaboost回归器来拟合正弦函数。我们使用决策树回归器作为弱学习器,并设置迭代次数为100,学习率为0.1。在训练完模型后,我们绘制了训练数据和拟合结果。

2、案例二

使用Adaboost分类器(基于SVM、决策树)对乳腺癌数据进行对比分析

  1. #使用Adaboost分类器(基于SVM、决策树)对乳腺癌数据进行对比分析
  2. #导入sklearn内置数据集
  3. from sklearn.datasets import load_breast_cancer
  4. #导入乳腺癌数据
  5. cancer =load_breast_cancer()
  6. #导入sklearn中的模型验证类
  7. from sklearn.model_selection import train_test_split
  8. #使用train_ test_split函数自动分割训练数据集和测试数据集
  9. x_train,x_test,y_train,y_test = train_test_split(cancer.data,cancer.target,test_size=0.3)
  10. #导人sklearn模块中的SVM包
  11. from sklearn import svm
  12. svc = svm.SVC(kernel='linear',gamma=5)
  13. svc.fit(x_train,y_train)
  14. print("单个sVC在训练集上的性能:%.3f"%svc.score(x_train,y_train))
  15. print("单个sVC在测试集上的性能:%.3f"%svc.score(x_test,y_test))
  16. #导人sklearn模块中的AdaBoost分类器类
  17. from sklearn.ensemble import AdaBoostClassifier
  18. #定义一个AdaBoost分类器对象,使用SVC分类器作为基分类器
  19. abcl = AdaBoostClassifier(svm.SVC(kernel='linear',gamma=5),algorithm="SAMME",n_estimators=50,learning_rate=0.1)
  20. abcl.fit(x_train,y_train)
  21. print("nAdaBoot(SVC)在训练集上的性能:%.3f"%(abcl.score(x_train,y_train)))
  22. print("AdaBoot(SVC)在测试集上的性能:%.3f"%(abcl.score(x_test,y_test)))
  23. #导入sklearn模块中的决策树分类器类
  24. from sklearn.tree import DecisionTreeClassifier
  25. dtc = DecisionTreeClassifier()
  26. dtc.fit(x_train,y_train)
  27. print("单棵决策树在训练集上的性能:%.3f"%dtc.score(x_train,y_train))
  28. print("单棵决策树在测试集上的性能:%.3f"%dtc.score(x_test,y_test))
  29. #定义一个AdaBoost分类器对象,使用决策树分类器作为基分类器
  30. abc2 = AdaBoostClassifier(DecisionTreeClassifier(),algorithm="SAMME",n_estimators=50,learning_rate=0.1)
  31. abc2.fit(x_train,y_train)
  32. print("\nAdaBoot(决策树)在训练集上的性能:%.3f"%abc2.score(x_train,y_train))
  33. print("AdaBoot(决策树)在测试集上的性能:%.3f"%abc2.score(x_test,y_test))#输出二分类指标
  34. y_predict =abcl.predict(x_test)
  35. from sklearn import metrics
  36. print('\n测试集混淆矩阵:\n',metrics.confusion_matrix(y_test,y_predict))
  37. print('测试集准确率:%.3f'%(metrics.accuracy_score(y_test,y_predict)))
  38. print('测试集精度:%.3f'%(metrics.precision_score(y_test,y_predict)))
  39. print('测试集召回率:%.3f'%(metrics.recall_score(y_test,y_predict)))
  40. print('测试集F1值:%.3f'%(metrics.f1_score(y_test,y_predict)))
  41. print('测试集Fbeta值(beta=0.1):%.3f'%(metrics.fbeta_score(y_test,y_predict,beta=0.1)))
  42. print('测试集Fbeta值(beta=10):%.3f'%(metrics.fbeta_score(y_test,y_predict,beta=10)))
  43. print('测试集分类报告:\n',metrics.classification_report(y_test,y_predict,target_names=['class_0','class_I']))#观察弱分类器数量在测试集上分类准确度
  44. abc_train_scores=[]
  45. abc_test_scores=[]
  46. for i in range(1,50):
  47. abc = AdaBoostClassifier(DecisionTreeClassifier(),n_estimators=i)
  48. abc.fit(x_train,y_train)
  49. abc_train_scores.append(abc.score(x_train,y_train))
  50. abc_test_scores.append(abc.score(x_test,y_test))
  51. import matplotlib.pyplot as plt
  52. #解决图形中的中文显示乱码
  53. plt.rcParams['font.sans-serif'] = ['SimHei']
  54. #解决图形中的坐标轴负号显示问题
  55. plt.matplotlib.rcParams['axes.unicode_minus']=False
  56. plt.figure()
  57. plt.title("AdaBoost算法在测试集上的性能")
  58. plt.xlabel("基分类器数量")
  59. plt.ylabel("准确率")
  60. plt.plot(range(1,50),abc_train_scores,color='b',label='测试集')
  61. plt.plot(range(1,50),abc_test_scores,color='r',label='训练集')
  62. plt.legend()
  63. plt.show()

运行结果:

单个sVC在训练集上的性能:0.965
单个sVC在测试集上的性能:0.959
nAdaBoot(SVC)在训练集上的性能:0.945
AdaBoot(SVC)在测试集上的性能:0.959
单棵决策树在训练集上的性能:1.000
单棵决策树在测试集上的性能:0.936

AdaBoot(决策树)在训练集上的性能:1.000
AdaBoot(决策树)在测试集上的性能:0.947

测试集混淆矩阵:
 [[66  5]
 [ 2 98]]
测试集准确率:0.959
测试集精度:0.951
测试集召回率:0.980
测试集F1值:0.966
测试集Fbeta值(beta=0.1):0.952
测试集Fbeta值(beta=10):0.980
测试集分类报告:
               precision    recall  f1-score   support

     class_0       0.97      0.93      0.95        71
     class_I       0.95      0.98      0.97       100

    accuracy                           0.96       171
   macro avg       0.96      0.95      0.96       171
weighted avg       0.96      0.96      0.96       171

37703340c276499e89d875cf796b94c8.png

 

总结

以上就是今天的内容~

最后欢迎大家点赞

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/煮酒与君饮/article/detail/752759
推荐阅读
相关标签