我知道 AdaBoost 可以用于分类,但是回归呢?
通过分类,很清楚如何将“发言量”(或权重)分配给最终模型集合中每个模型(树桩)的预测。每个树桩都会犯不同的错误。根据均值(均方)误差对模型的每个预测进行加权是否合理?
我知道 AdaBoost 可以用于分类,但是回归呢?
通过分类,很清楚如何将“发言量”(或权重)分配给最终模型集合中每个模型(树桩)的预测。每个树桩都会犯不同的错误。根据均值(均方)误差对模型的每个预测进行加权是否合理?
AdaBoost 是一种元算法,这意味着它可以与其他算法一起使用以提高性能。事实上,提升的概念是一种线性回归。
现在,专门回答您的问题,AdaBoost 实际上是用于分类和回归问题。例如,Scikit-Learn 实现了Adaboost 回归器:
AdaBoost 回归器是一种元估计器,首先在原始数据集上拟合回归器,然后在同一数据集上拟合回归器的其他副本,但实例的权重根据当前预测的误差进行调整。因此,后续的回归器更多地关注困难的案例。