XGBoost 树的线性回归(而不是取平均值)有用/受欢迎吗?

数据挖掘 预测建模 决策树 xgboost 集成建模
2022-02-10 01:45:34

给定训练数据(x_1,y1),...,(xN_,yN),可以为树选择多种集成方法。这些算法输出一组树T1,...,Tn,然后预测是他们的平均值:1nT1(x_i)+...+1nTn(x_i)

在书里:

https://www.amazon.com/Ensemble-Methods-Data-Mining-Predictions/dp/1608452840

作者建议使用线性回归对 Adaboost 进行后处理,他们见证了整体性能的提高。也就是说,他们建议使用新的训练数据进行线性回归:

((T1(x_1),...,Tn(x_1),y1),...,((T1(x_N),...,Tn(x_N),yN)

然后使用结果系数而不是系数1/n对于不同的树。

这本书写于 2010 年,据我所知,XGBoost 确实允许这种后期处理。所以我想知道发生了什么:

  1. 是不是发现这种方法在很大程度上没有帮助?
  2. 是不是这种方法还不够知名?
  3. 或者——这种方法是否一直在使用而我只是不知道?
0个回答
没有发现任何回复~