赞
踩
特征重要性分析用于了解每个特征(变量或输入)对于做出预测的有用性或价值。目标是确定对模型输出影响最大的最重要的特征,它是机器学习中经常使用的一种方法。
如果有一个包含数十个甚至数百个特征的数据集,每个特征都可能对你的机器学习模型的性能有所贡献。但是并不是所有的特征都是一样的。有些可能是冗余的或不相关的,这会增加建模的复杂性并可能导致过拟合。
特征重要性分析可以识别并关注最具信息量的特征,从而带来以下几个优势:
改进的模型性能
减少过度拟合
更快的训练和推理
增强的可解释性
下面我们深入了解在Python中的一些特性重要性分析的方法。
1、排列重要性 PermutationImportance
该方法会随机排列每个特征的值,然后监控模型性能下降的程度。如果获得了更大的下降意味着特征更重要
from sklearn.datasets import load\_breast\_cancer from sklearn.ensemble import RandomForestClassifier from sklearn.inspection import permutation\_importance from sklearn.model\_selection import train\_test\_split import matplotlib.pyplot as plt cancer = load\_breast\_cancer() X\_train, X\_test, y\_train, y\_test = train\_test\_split(cancer.data, cancer.target, random\_state=1) rf = RandomForestClassifier(n\_estimators=100, random\_state=1) rf.fit(X\_train, y\_train) baseline = rf.score(X\_test, y\_test) result = permutation\_importance(rf, X\_test, y\_test, n\_repeats=10, random\_state=1, scoring='accuracy') importances = result.importances\_mean # Visualize permutation importances plt.bar(range(len(importances)), importances) plt.xlabel('Feature Index') plt.ylabel('Permutation Importance') plt.show()
2、内置特征重要性(coef_或feature_importances_)
一些模型,如线性回归和随机森林,可以直接输出特征重要性分数。这些显示了每个特征对最终预测的贡献。
from sklearn.datasets import load\_breast\_cancer from sklearn.ensemble import RandomForestClassifier X, y = load\_breast\_cancer(return\_X\_y=True) rf = RandomForestClassifier(n\_estimators=100, random\_state=1) rf.fit(X, y) importances = rf.feature\_importances\_ # Plot importances plt.bar(range(X.shape\[1\]), importances) plt.xlabel('Feature Index') plt.ylabel('Feature Importance') plt.show()
3、Leave-one-out
迭代地每次删除一个特征并评估准确性。
from sklearn.datasets import load\_breast\_cancer from sklearn.model\_selection import train\_test\_split from sklearn.ensemble import RandomForestClassifier from sklearn.metrics import accuracy\_score import matplotlib.pyplot as plt import numpy as np # Load sample data X, y = load\_breast\_cancer(return\_X\_y=True) # Split data into train and test sets X\_train, X\_test, y\_train, y\_test = train\_test\_split(X, y, test\_size=0.3, random\_state=1) # Train a random forest model rf = RandomForestClassifier(n\_estimators=100, random\_state=1) rf.fit(X\_train, y\_train) # Get baseline accuracy on test data base\_acc = accuracy\_score(y\_test, rf.predict(X\_test)) # Initialize empty list to store importances importances = \[\] # Iterate over all columns and remove one at a time for i in range(X\_train.shape\[1\]): X\_temp = np.delete(X\_train, i, axis=1) rf.fit(X\_temp, y\_train) acc = accuracy\_score(y\_test, rf.predict(np.delete(X\_test, i, axis=1))) importances.append(base\_acc - acc) # Plot importance scores plt.bar(range(len(importances)), importances) plt.show()
4、相关性分析
计算各特征与目标变量之间的相关性。相关性越高的特征越重要。
import pandas as pd
from sklearn.datasets import load\_breast\_cancer
X, y = load\_breast\_cancer(return\_X\_y=True)
df = pd.DataFrame(X, columns=range(30))
df\['y'\] = y
correlations = df.corrwith(df.y).abs()
correlations.sort\_values(ascending=False, inplace=True)
correlations.plot.bar()
5、递归特征消除 Recursive Feature Elimination
递归地删除特征并查看它如何影响模型性能。删除时会导致更大下降的特征更重要。
from sklearn.ensemble import RandomForestClassifier from sklearn.feature\_selection import RFE import pandas as pd from sklearn.datasets import load\_breast\_cancer import matplotlib.pyplot as plt X, y = load\_breast\_cancer(return\_X\_y=True) df = pd.DataFrame(X, columns=range(30)) df\['y'\] = y rf = RandomForestClassifier() rfe = RFE(rf, n\_features\_to\_select=10) rfe.fit(X, y) print(rfe.ranking\_)
输出为[6 4 11 12 7 11 18 21 8 16 10 3 15 14 19 17 20 13 11 11 12 9 11 5 11]
6、XGBoost特性重要性
计算一个特性用于跨所有树拆分数据的次数。更多的分裂意味着更重要。
import xgboost as xgb import pandas as pd from sklearn.datasets import load\_breast\_cancer import matplotlib.pyplot as plt X, y = load\_breast\_cancer(return\_X\_y=True) df = pd.DataFrame(X, columns=range(30)) df\['y'\] = y model = xgb.XGBClassifier() model.fit(X, y) importances = model.feature\_importances\_ importances = pd.Series(importances, index=range(X.shape\[1\])) importances.plot.bar()
7、主成分分析 PCA
对特征进行主成分分析,并查看每个主成分的解释方差比。在前几个组件上具有较高负载的特性更为重要。
from sklearn.decomposition import PCA import pandas as pd from sklearn.datasets import load\_breast\_cancer import matplotlib.pyplot as plt X, y = load\_breast\_cancer(return\_X\_y=True) df = pd.DataFrame(X, columns=range(30)) df\['y'\] = y pca = PCA() pca.fit(X) plt.bar(range(pca.n\_components\_), pca.explained\_variance\_ratio\_) plt.xlabel('PCA components') plt.ylabel('Explained Variance')
8、方差分析 ANOVA
使用f_classif()获得每个特征的方差分析f值。f值越高,表明特征与目标的相关性越强。
from sklearn.feature\_selection import f\_classif import pandas as pd from sklearn.datasets import load\_breast\_cancer import matplotlib.pyplot as plt X, y = load\_breast\_cancer(return\_X\_y=True) df = pd.DataFrame(X, columns=range(30)) df\['y'\] = y fval = f\_classif(X, y) fval = pd.Series(fval\[0\], index=range(X.shape\[1\])) fval.plot.bar()
9、卡方检验
使用chi2()获得每个特征的卡方统计信息。得分越高的特征越有可能独立于目标。
from sklearn.feature\_selection import chi2 import pandas as pd from sklearn.datasets import load\_breast\_cancer import matplotlib.pyplot as plt X, y = load\_breast\_cancer(return\_X\_y=True) df = pd.DataFrame(X, columns=range(30)) df\['y'\] = y chi\_scores = chi2(X, y) chi\_scores = pd.Series(chi\_scores\[0\], index=range(X.shape\[1\])) chi\_scores.plot.bar()
不同的特征重要性方法有时可以识别出不同的特征是最重要的,这是因为:
1、他们用不同的方式衡量重要性:
有的使用不同特特征进行预测,监控精度下降
像XGBOOST或者回国模型使用内置重要性来进行特征的重要性排列
而PCA着眼于方差解释
2、不同模型有不同模型的方法:
线性模型倾向于线性关系、树模型倾向于接近根的特征
4、交互作用:
有的方法可以获取特征之间的相互左右,而有一些则不行,这就会导致结果的差异
5、不稳定:
使用不同的数据子集,重要性值可能在同一方法的不同运行中有所不同,这是因为数据差异决定的
6、Hyperparameters:
通过调整超参数,如PCA组件或树深度,也会影响结果
所以不同的假设、偏差、数据处理和方法的可变性意味着它们并不总是在最重要的特征上保持一致。
尝试多种方法以获得更健壮的视图
聚合结果的集成方法
更多地关注相对顺序,而不是绝对值
差异并不一定意味着有问题,检查差异的原因会对数据和模型有更深入的了解
感谢你能看到最后,给大家准备了一些福利!
感兴趣的小伙伴,赠送全套Python学习资料,包含面试题、简历资料等具体看下方。
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/酷酷是懒虫/article/detail/789364
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。