当学习集中的变量/特征多于观察值时,您更喜欢二元分类的变量/特征选择是什么?这里的目的是讨论什么是最好地减少分类错误的特征选择过程。
我们可以修正符号以保持一致性:对于, 让是来自组的观察学习集. 所以是学习集的大小。我们设置为特征的数量(即特征空间的维度)。让表示-th 坐标.
如果您不能提供详细信息,请提供完整的参考资料。
编辑(不断更新):以下答案中提出的程序
- 贪婪前向选择 二进制分类的变量选择过程
- 用于二元分类的后向消除 变量选择过程
- Metropolis 扫描/MCMC 二进制分类的变量选择程序
- 用于二元分类的惩罚逻辑回归 变量选择程序
由于这是社区 wiki,因此可以进行更多讨论和更新
我有一个说法:在某种意义上,你们都给出了一个允许变量排序但不允许变量选择的过程(你对如何选择特征数量非常回避,我猜你们都使用交叉验证?)你能改进这个方向的答案?(因为这是社区 wiki,所以您不需要成为答案作者来添加有关如何选择变量数量的信息?我在这个方向上打开了一个问题在这里交叉验证非常高维度(选择数量在非常高维分类中使用的变量))