我有一个关于机器学习算法的超参数优化的问题。
我尝试拟合支持向量分类器并使用超参数调整(但它也可能是另一个分类器)。
我的班级高度不平衡(一个班级的 20%,我们称之为“红色”,另一个班级的 80%,我们称之为“黑色”)。
现在,我的超参数优化的目标是交叉验证损失。
例如,如果 20% 的观察结果是“红色”而 80% 是“黑色”,那么一个非常糟糕的分类器只会将每个案例标记为“黑色”,并平均实现 20% 的交叉验证损失。
现在我的问题是:如果我发现我的超参数优化的目标没有明显低于 20%,我可以推断它是无用的,无需进一步分析。正确的?还是有什么我不正确理解的?
这发生在我现在正在运行的所有优化中。我可以得出结论,我的特征没有提供信息。
我想我必须更改超参数优化例程的目标?(如果我的包裹允许的话)

