弱估计器在模糊分类器上的线性组合?

数据挖掘 机器学习 回归 在线学习
2022-02-12 09:05:33

有:

  • 一组软模糊分类器(分类到重叠集)Ci(x)[0,1]
  • 一组相应的弱估计量,形式为Ri(z)Ri(z)=EX(yz)

估计器只是某种回归、卡尔曼或粒子滤波器。分类器是固定的和静态的。如何从以下形式的加权组合中制作一个强大的估计器:RiCi

L(x,z)=iCi(x)Ri(z)Qi

换句话说,如何选择权重是否有某种在线方法可以解决此问题?Qi

下面是一个实际应用的简要说明。当注册事件时,会进行多次测量。基于这些测量,分类器将事件软分配给多个重叠类别。我们得到的是软簇的拟合比。ECi

现在事件有可能触发后续事件,这取决于另一个变量 - 独立于事件我们知道所有的软集群“成员”都可能影响事件被触发的概率。EDzED

给定适应度和值,我们想要估计触发的概率。EDCiz

1个回答

您可以通过查看 Viola & Jones 人脸检测算法(以及一般的对象检测)http://www.cs.ubc.ca/~lowe/425/slides/13-ViolaJones.pdf找到解决方案。特别是用于从弱分类器构建强分类器的 AdaBoost 算法。https://www.cs.princeton.edu/~schapire/papers/explaining-adaboost.pdf

在这个算法中,这特别用于特征选择,它希望只选择组合在一起的特征,分类更好,而将其他的作为噪声特征丢弃。

获得这个强分类器的方法是具有一组示例 X、一组权重 W 和一组预期结果(分类)Y。对于一个二类示例(例如,人脸 o 没有人脸图像),第一个弱分类器是选择,然后在这个分类器和预期输出之间找到分类误差。对于被错误分类的样本,它们的权重会增加,因此下一个要找到的弱分类器更倾向于忽略这个错误的分类。

当每个样本的分类和的符号输出正确的分类时,算法 (AdaBoost) 收敛。

例如:

Y = +1 -1 +1 +1

WC1=+1 +1 +1 +1
WC2=-1 -1 -1 -1
WC3=+1 -1 +1 +1

所以强分类器是WC1+WC2+WC3:

SC=+1 -1 +1 +1 == Y

希望这能解决你的问题。