另请参阅stats.SE 上的类似问题。
在诸如AdaBoost和LPBoost之类的增强算法中,众所周知,要组合的“弱”学习者只需表现得比机会有用,就可以了,来自 Wikipedia:
它使用的分类器可能很弱(即显示出很大的错误率),但只要它们的性能不是随机的(导致二元分类的错误率为 0.5),它们就会改进最终模型。即使是错误率高于随机分类器预期的分类器也是有用的,因为它们在分类器的最终线性组合中具有负系数,因此表现得像它们的逆。
使用弱学习器而不是强学习器有什么好处?(例如,为什么不使用“强”学习方法来提升——我们是否更容易过度拟合?)
弱学习者是否有某种“最佳”强度?这与集合中的学习者数量有关吗?
是否有任何理论来支持这些问题的答案?