我们有一个小数据集(大约 250 个样本 * 100 个特征),我们希望在选择最佳特征子集后在其上构建一个二元分类器。假设我们将数据划分为:
培训、验证和测试
对于特征选择,我们应用了一个基于选择特征的包装模型,分别优化分类器 X、Y 和 Z 的性能。在这个预处理步骤中,我们使用训练数据来训练分类器和验证数据来评估每个候选特征子集。
最后,我们要比较不同的分类器(X、Y 和 Z)。当然,我们可以使用测试部分的数据来进行公平的比较和评价。但是在我的情况下,测试数据会非常小(大约 10 到 20 个样本),因此,我想应用交叉验证来评估模型。
正例和反例的分布高度不平衡(大约 8:2)。因此,交叉验证可能会误导我们评估性能。为了克服这个问题,我们计划将测试部分(10-20 个样本)作为第二种比较方法并验证交叉验证。
总之,我们将数据划分为训练、验证和测试。训练和验证部分将用于特征选择。然后,将应用对相同数据的交叉验证来估计模型。最后,在数据不平衡的情况下,使用测试来验证交叉验证。
问题是:如果我们使用相同的数据(训练+验证)来选择优化分类器 X、Y 和 Z 性能的特征,我们能否对用于特征选择的相同数据(训练+验证)应用交叉验证测量最终性能并比较分类器?
我不知道此设置是否会导致有偏差的交叉验证测量并导致不合理的比较。