8 机器学习中的特征选择
8.1 特征选择
特征选择是机器学习实践中的一步, 帮你在所有特征中选择对结果贡献最多的特征。 显然, 使用不相关数据会减少模型的精确性, 尤其是线性算法:线性回归, 逻辑回归。为什么,因为线性算法一般使用梯度下降来寻找最优值, 那么如果特征无关, 方向就有可能误导。- 我的理解。
以下是三个好处:
- 减少过拟合。 这个话题其实比较大。 要理解什么是过拟合, 就是模型过于贴近训练集, 导致了泛化能力很差。 吴恩达课上有一个图可以说明过拟合和欠拟合的区分, 这部分可能后续继续详细阐述。
- 提高精确性。 更少的无效数据意味着模型精确性的提升。
- 减少训练时间。 数据少了自然运算时间短了。
8.2 单变量选择
scikit-learn提供了SelectKBest类可以用来根据一些统计的测试来选择出一些数量的最有效的特征。 以下例子就是用了chi-square test 卡方检验来进行非相关性分析,选出了4种最相关的特征。
首先, 这个是为了分类变量。输入是这个特征和分类结果。 原理略, 卡方值越大,越不符合;卡方值越小,偏差越小,越趋于符合,若两个值完全相等时,卡方值就为0,表明理论值完全符合。
对于分类的检验算法, 有 : chi2, f_classif, mutual_info_classif 对于回归呢, 有: f_regression, mutual_info_regression
# Feature Extraction with Univariate Statistical Tests (Chi-squared for classification)from pandas import read_csvfrom numpy import set_printoptionsfrom sklearn.feature_selection import SelectKBestfrom sklearn.feature_selection import chi2# load datafilename = 'pima-indians-diabetes.data.csv'names = ['preg', 'plas', 'pres', 'skin', 'test', 'mass', 'pedi', 'age', 'class']dataframe = read_csv(filename, names=names)array = dataframe.valuesX = array[:,0:8]Y = array[:,8]# feature extractiontest = SelectKBest(score_func=chi2, k=4)fit = test.fit(X, Y)# summarize scoresset_printoptions(precision=3)print(fit.scores_)features = fit.transform(X)# summarize selected featuresprint(features[0:5,:])
[ 111.52 1411.887 17.605 53.108 2175.565 127.669 5.393 181.304][[ 148. 0. 33.6 50. ] [ 85. 0. 26.6 31. ] [ 183. 0. 23.3 32. ] [ 89. 94. 28.1 21. ] [ 137. 168. 43.1 33. ]]
8.3 递归特征消除法 RFE
递归特征消除呢就是说每次把对结果最没有用的这个特征去掉。 然后如此继续。 最终得到自己想留下的特征数量。 这里有一个问题, 采取何种算法, 如何的标准来判断这个重要性? 为什么用逻辑回归, 也有SVC 支持向量回归? 这样做的好处是什么呢, 就是为了消除一下, 那么消除好还是不消除好呢。
递归特征消除的主要思想是反复的构建模型(如SVM或者回归模型)然后选出最好的(或者最差的)的特征(可以根据系数来选),把选出来的特征放到一遍,然后在剩余的特征上重复这个过程,直到所有特征都遍历了。这个过程中特征被消除的次序就是特征的排序。因此,这是一种寻找最优特征子集的贪心算法。
RFE的稳定性很大程度上取决于在迭代的时候底层用哪种模型。例如,假如RFE采用的普通的回归,没有经过正则化的回归是不稳定的,那么RFE就是不稳定的;假如采用的是Ridge,而用Ridge正则化的回归是稳定的,那么RFE就是稳定的。
# Feature Extraction with RFEfrom pandas import read_csvfrom sklearn.feature_selection import RFEfrom sklearn.linear_model import LogisticRegression# load datafilename = 'pima-indians-diabetes.data.csv'names = ['preg', 'plas', 'pres', 'skin', 'test', 'mass', 'pedi', 'age', 'class']dataframe = read_csv(filename, names=names)array = dataframe.valuesX = array[:,0:8]Y = array[:,8]# feature extractionmodel = LogisticRegression()rfe = RFE(model, 3)fit = rfe.fit(X, Y)print("Num Features: %d") % fit.n_features_print("Selected Features: %s") % fit.support_print("Feature Ranking: %s") % fit.ranking_
Num Features: 3Selected Features: [ True False False False False True True False]Feature Ranking: [1 2 3 5 6 1 1 4]
8.4 PCA 主成因分析
这个方法在机器学习实战中介绍过, 主要用来降维。 经过PCA, 以前的8个特征会转化成另外的8个特征, 而每种特征之间是正交关系, 这就意味着他们提供的信息是不相关的, 也就是没有相关性, 可以理解成都是干货。 :)
其实通过实践你可以发现, 后续的一些特征值都是0了, 其实没有那么多维度的信息。 所以后面那些自然可以省略了。
# Feature Extraction with PCAfrom pandas import read_csvfrom sklearn.decomposition import PCA# load datafilename = 'pima-indians-diabetes.data.csv'names = ['preg', 'plas', 'pres', 'skin', 'test', 'mass', 'pedi', 'age', 'class']dataframe = read_csv(filename, names=names)array = dataframe.valuesX = array[:,0:8]Y = array[:,8]# feature extractionpca = PCA(n_components=3)fit = pca.fit(X)# summarize componentsprint("Explained Variance: %s") % fit.explained_variance_ratio_print(fit.components_)
Explained Variance: [ 0.889 0.062 0.026][[ -2.022e-03 9.781e-02 1.609e-02 6.076e-02 9.931e-01 1.401e-02 5.372e-04 -3.565e-03] [ -2.265e-02 -9.722e-01 -1.419e-01 5.786e-02 9.463e-02 -4.697e-02 -8.168e-04 -1.402e-01] [ -2.246e-02 1.434e-01 -9.225e-01 -3.070e-01 2.098e-02 -1.324e-01 -6.400e-04 -1.255e-01]]
8.5 特征重要性分析
对于特征重要性的评判, bagging 相关的算法可以帮忙计算。 字面翻译就是打包的一些算法, 比如随机森林, 这个是用大量的一阶的树桩, 然后根据投票选举的方式得到预测的结果。 比如Extra Trees。
在tree bagging基础上,每一个model训练的时候对所选取的data split随机选取一部分特征子集(random subset of the features)来训练。这样做的目的也是为了让学到的tree不要太相似。 进一步扩展RF算法,是一种叫extremely randomized trees,(ExtraTrees)的算法:在RF采取bagging和random subspace的基础上,进一步在每一棵树train决策树的时候,选取的split value采用随机生成. 这些算法可以帮助我们来判断特征的重要性。
那么问题来了, 他是如何来帮助我们得到特征的重要性呢。 首先它肯定可以做分类。 然后呢, 根据哪些参数可以决定结果的权重可以得到点信息, 这个还是不很理解, 需要看它的实现才行, 放到TODO 吧。
顺便说一下, 随机森林还能帮我们做缺失值的补值, 当然这个缺失值话题还是很大的, 有平均值, 补零,随机森林等等。
# Feature Importance with Extra Trees Classifierfrom pandas import read_csvfrom sklearn.ensemble import ExtraTreesClassifier# load datafilename = 'pima-indians-diabetes.data.csv'names = ['preg', 'plas', 'pres', 'skin', 'test', 'mass', 'pedi', 'age', 'class']dataframe = read_csv(filename, names=names)array = dataframe.valuesX = array[:,0:8]Y = array[:,8]# feature extractionmodel = ExtraTreesClassifier()model.fit(X, Y)print(model.feature_importances_)
[ 0.102 0.247 0.104 0.083 0.074 0.128 0.126 0.135]
8.6 小结
其实这些很多是相通的, 都是特征选择的一些方式, 那么具体问题具体分析。 PCA可能略有不同。 但是这几种办法还是很有帮助的。
参考 1 2 卡方检验 3 4