「人工智能」No.8 特征工程之特征选择

【导读:当今人类即将或者已然了进入智能时代,这是·情报通·人工智能科普系列第[8]篇文章,欢迎阅读和收藏!】

1 基本概念

数据是实现机器学习的重要输入,而特征选择就是当数据预处理完成后,我们需要选择有意义的特征输入机器学习的算法和模型进行训练。通常来说,从两个方面考虑来选择特征:

1) 特征是否发散:如果一个特征不发散,例如方差接近于 0 ,也就是说样本在这个特征上基本上没有差异,这个特征对于样本的区分并没有什么用。

2) 特征与目标的相关性:这点比较显见,与目标相关性高的特征,应当优选选择。

「人工智能」No.8 特征工程之特征选择

2 术语解释

特征 :一个客体或一组客体特性的抽象结果。

Filter : 方差选择法,按照发散性或者相关性对各个特征进行评分,设定阈值或者待选择阈值的个数,选择特征。

Wrapper : 包装法,根据目标函数(通常是预测效果评分),每次选择若干特征,或者排除若干特征。

Embedded : 嵌入法,先使用某些机器学习的算法和模型进行训练,得到各个特征的权值系数,根据系数从大到小选择特征。类似于 Filter 方法,但是是通过训练来确定特征的优劣。

3 过滤法

3.1 方差选择法

使用方差选择法,先要计算各个特征的方差,然后根据阈值,选择方差大于阈值的特征。

3.2 相关系数法

使用相关系数法,先要计算各个特征对目标值的相关系数以及相关系数的 P 值。

3.3 卡方校验

经典的卡方检验是检验定性自变量对定性因变量的相关性。

3.4 互信息法

经典的互信息也是评价定性自变量对定性因变量的相关性的

4 包装法

4.1 递归特征消除法

递归消除特征法使用一个基模型来进行多轮训练,每轮训练后,消除若干权值系数的特征,再基于新的特征集进行下一轮训练。

5 嵌入法

5.1 基于惩罚项的选择

使用带惩罚项的基模型,除了筛选出特征外,同时也进行了降维。

5.2 基于树模型的选择

树模型中 GBDT 也可用来作为基模型进行特征选择。


分享到:


相關文章: