RFE 与反向消除 - 有区别吗?

机器算法验证 特征选择 scikit-学习 降维 逐步回归
2022-03-21 07:42:24

我最近发现了RFE工具,并且喜欢它。我想了解这与普通的反向消除有何不同。

尽管有很多关于这两种技术的信息,但对我来说一分钱似乎并没有下降。

在这里,答案暗示它们本质上是同一回事。

在这里,作者建议 RFE 以单个变量系数为目标(我假设 p 值或可能是效应大小?),而反向消除试图实现整个模型的最低 AIC 分数。

在这里,作者认为 RFE 是一种反向消除,尽管解释很难理解,本质上的区别也没有解决。

那么,RFE 只是由数据科学家而不是统计学家完成的反向消除吗?

1个回答

在介绍 RFE 的论文中引用 Guyon的话

这个 [RFE] 迭代过程是后向特征消除的一个实例(Kohavi,2000 和其中的参考资料)

事实上,在引入 RFE 时,Guyon 使用了支持向量机,并提出了两种不同的方法来对单个预测变量进行排序。
同时,Kohavi 测试了树分类器和朴素贝叶斯的反向消除——因此特征的评分方法不同。

总而言之,这两种方法是一样的——从一个包含所有预测变量的模型开始,然后根据一些评分函数(线性回归的 Z 分数,基于树的方法的 Gini 等)将它们一一移除,使用最大化某些目标指标(AIC,或测试性能)的目标。