当使用顺序特征选择方法时,比如前向特征选择,当模型分数的提高小于某个水平时,我想停止添加新特征。在这种情况下是否有一个标准标准被用作停止条件?
它让我想起了使用肘部方法来选择最佳集群数量的情况。BIC/AIC 是否与当前问题相关?还有其他方法吗?
我还查看了用于顺序特征选择的 scikit-learn 实现,它们不支持基于实际数据的停止标准,但需要选择预定义数量的特征,据我了解,这可能会导致任何损失有价值的信息/过度拟合...
当使用顺序特征选择方法时,比如前向特征选择,当模型分数的提高小于某个水平时,我想停止添加新特征。在这种情况下是否有一个标准标准被用作停止条件?
它让我想起了使用肘部方法来选择最佳集群数量的情况。BIC/AIC 是否与当前问题相关?还有其他方法吗?
我还查看了用于顺序特征选择的 scikit-learn 实现,它们不支持基于实际数据的停止标准,但需要选择预定义数量的特征,据我了解,这可能会导致任何损失有价值的信息/过度拟合...