博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
掌握python机器学习-读书笔记4(特征选择)
阅读量:7066 次
发布时间:2019-06-28

本文共 4873 字,大约阅读时间需要 16 分钟。

  hot3.png

8 机器学习中的特征选择

8.1 特征选择

特征选择是机器学习实践中的一步, 帮你在所有特征中选择对结果贡献最多的特征。 显然, 使用不相关数据会减少模型的精确性, 尤其是线性算法:线性回归, 逻辑回归。为什么,因为线性算法一般使用梯度下降来寻找最优值, 那么如果特征无关, 方向就有可能误导。- 我的理解。

以下是三个好处:

  • 减少过拟合。 这个话题其实比较大。 要理解什么是过拟合, 就是模型过于贴近训练集, 导致了泛化能力很差。 吴恩达课上有一个图可以说明过拟合和欠拟合的区分, 这部分可能后续继续详细阐述。
  • 提高精确性。 更少的无效数据意味着模型精确性的提升。
  • 减少训练时间。 数据少了自然运算时间短了。

8.2 单变量选择

scikit-learn提供了SelectKBest类可以用来根据一些统计的测试来选择出一些数量的最有效的特征。 以下例子就是用了chi-square test 卡方检验来进行非相关性分析,选出了4种最相关的特征。

首先, 这个是为了分类变量。输入是这个特征和分类结果。 原理略, 卡方值越大,越不符合;卡方值越小,偏差越小,越趋于符合,若两个值完全相等时,卡方值就为0,表明理论值完全符合。

对于分类的检验算法, 有 : chi2, f_classif, mutual_info_classif 对于回归呢, 有: f_regression, mutual_info_regression

# Feature Extraction with Univariate Statistical Tests (Chi-squared for classification)from pandas import read_csvfrom numpy import set_printoptionsfrom sklearn.feature_selection import SelectKBestfrom sklearn.feature_selection import chi2# load datafilename = 'pima-indians-diabetes.data.csv'names = ['preg', 'plas', 'pres', 'skin', 'test', 'mass', 'pedi', 'age', 'class']dataframe = read_csv(filename, names=names)array = dataframe.valuesX = array[:,0:8]Y = array[:,8]# feature extractiontest = SelectKBest(score_func=chi2, k=4)fit = test.fit(X, Y)# summarize scoresset_printoptions(precision=3)print(fit.scores_)features = fit.transform(X)# summarize selected featuresprint(features[0:5,:])
[  111.52   1411.887    17.605    53.108  2175.565   127.669     5.393   181.304][[ 148.     0.    33.6   50. ] [  85.     0.    26.6   31. ] [ 183.     0.    23.3   32. ] [  89.    94.    28.1   21. ] [ 137.   168.    43.1   33. ]]

8.3 递归特征消除法 RFE

递归特征消除呢就是说每次把对结果最没有用的这个特征去掉。 然后如此继续。 最终得到自己想留下的特征数量。 这里有一个问题, 采取何种算法, 如何的标准来判断这个重要性? 为什么用逻辑回归, 也有SVC 支持向量回归? 这样做的好处是什么呢, 就是为了消除一下, 那么消除好还是不消除好呢。

递归特征消除的主要思想是反复的构建模型(如SVM或者回归模型)然后选出最好的(或者最差的)的特征(可以根据系数来选),把选出来的特征放到一遍,然后在剩余的特征上重复这个过程,直到所有特征都遍历了。这个过程中特征被消除的次序就是特征的排序。因此,这是一种寻找最优特征子集的贪心算法。

RFE的稳定性很大程度上取决于在迭代的时候底层用哪种模型。例如,假如RFE采用的普通的回归,没有经过正则化的回归是不稳定的,那么RFE就是不稳定的;假如采用的是Ridge,而用Ridge正则化的回归是稳定的,那么RFE就是稳定的。

# Feature Extraction with RFEfrom pandas import read_csvfrom sklearn.feature_selection import RFEfrom sklearn.linear_model import LogisticRegression# load datafilename = 'pima-indians-diabetes.data.csv'names = ['preg', 'plas', 'pres', 'skin', 'test', 'mass', 'pedi', 'age', 'class']dataframe = read_csv(filename, names=names)array = dataframe.valuesX = array[:,0:8]Y = array[:,8]# feature extractionmodel = LogisticRegression()rfe = RFE(model, 3)fit = rfe.fit(X, Y)print("Num Features: %d") % fit.n_features_print("Selected Features: %s") % fit.support_print("Feature Ranking: %s") % fit.ranking_
Num Features: 3Selected Features: [ True False False False False  True  True False]Feature Ranking: [1 2 3 5 6 1 1 4]

8.4 PCA 主成因分析

这个方法在机器学习实战中介绍过, 主要用来降维。 经过PCA, 以前的8个特征会转化成另外的8个特征, 而每种特征之间是正交关系, 这就意味着他们提供的信息是不相关的, 也就是没有相关性, 可以理解成都是干货。 :)

其实通过实践你可以发现, 后续的一些特征值都是0了, 其实没有那么多维度的信息。 所以后面那些自然可以省略了。

# Feature Extraction with PCAfrom pandas import read_csvfrom sklearn.decomposition import PCA# load datafilename = 'pima-indians-diabetes.data.csv'names = ['preg', 'plas', 'pres', 'skin', 'test', 'mass', 'pedi', 'age', 'class']dataframe = read_csv(filename, names=names)array = dataframe.valuesX = array[:,0:8]Y = array[:,8]# feature extractionpca = PCA(n_components=3)fit = pca.fit(X)# summarize componentsprint("Explained Variance: %s") % fit.explained_variance_ratio_print(fit.components_)
Explained Variance: [ 0.889  0.062  0.026][[ -2.022e-03   9.781e-02   1.609e-02   6.076e-02   9.931e-01   1.401e-02    5.372e-04  -3.565e-03] [ -2.265e-02  -9.722e-01  -1.419e-01   5.786e-02   9.463e-02  -4.697e-02   -8.168e-04  -1.402e-01] [ -2.246e-02   1.434e-01  -9.225e-01  -3.070e-01   2.098e-02  -1.324e-01   -6.400e-04  -1.255e-01]]

8.5 特征重要性分析

对于特征重要性的评判, bagging 相关的算法可以帮忙计算。 字面翻译就是打包的一些算法, 比如随机森林, 这个是用大量的一阶的树桩, 然后根据投票选举的方式得到预测的结果。 比如Extra Trees。

在tree bagging基础上,每一个model训练的时候对所选取的data split随机选取一部分特征子集(random subset of the features)来训练。这样做的目的也是为了让学到的tree不要太相似。 进一步扩展RF算法,是一种叫extremely randomized trees,(ExtraTrees)的算法:在RF采取bagging和random subspace的基础上,进一步在每一棵树train决策树的时候,选取的split value采用随机生成. 这些算法可以帮助我们来判断特征的重要性。

那么问题来了, 他是如何来帮助我们得到特征的重要性呢。 首先它肯定可以做分类。 然后呢, 根据哪些参数可以决定结果的权重可以得到点信息, 这个还是不很理解, 需要看它的实现才行, 放到TODO 吧。

顺便说一下, 随机森林还能帮我们做缺失值的补值, 当然这个缺失值话题还是很大的, 有平均值, 补零,随机森林等等。

# Feature Importance with Extra Trees Classifierfrom pandas import read_csvfrom sklearn.ensemble import ExtraTreesClassifier# load datafilename = 'pima-indians-diabetes.data.csv'names = ['preg', 'plas', 'pres', 'skin', 'test', 'mass', 'pedi', 'age', 'class']dataframe = read_csv(filename, names=names)array = dataframe.valuesX = array[:,0:8]Y = array[:,8]# feature extractionmodel = ExtraTreesClassifier()model.fit(X, Y)print(model.feature_importances_)
[ 0.102  0.247  0.104  0.083  0.074  0.128  0.126  0.135]

8.6 小结

其实这些很多是相通的, 都是特征选择的一些方式, 那么具体问题具体分析。 PCA可能略有不同。 但是这几种办法还是很有帮助的。

参考 1 2 卡方检验 3 4

转载于:https://my.oschina.net/sizhe/blog/1588135

你可能感兴趣的文章
Eureka微服务实战-服务提供者
查看>>
简单的原生ajax
查看>>
h5开发坑点小总结
查看>>
几分钟内提升技能的8个 JavaScript 方法!
查看>>
mac显示隐藏文件
查看>>
Android 插件化原理-好文收集(陆续中。。。)
查看>>
双亲委派模型与Tomcat类加载架构
查看>>
Highcharts tooltip显示数量和百分比
查看>>
小程序兼容iphoneX(齐刘海)代码,mpvue的写法
查看>>
小米设备怎么不ROOT激活Xposed框架的步骤
查看>>
Vue Router
查看>>
你所听到的技术原理、技术本质到底是什么?
查看>>
决战燕京城-10 前往天寿山
查看>>
WebMvcTest与SpringBootTest
查看>>
面试官:你接受免费加班吗?程序员这样怼回去,网友:老铁没毛病
查看>>
分享我的个人项目:Wildfire 野火评论系统
查看>>
【机器视觉与图像处理】基于MATLAB的角度计算
查看>>
一篇很全面的IOS面试题(下)
查看>>
极简.高性能.分布式框架,可运行于多种环境(apache/php-fpm,swoole)
查看>>
DESTOON7.0农产品B2B供应求购交易平台源码
查看>>