如果我们回想一下线性模型,我们有普通最小二乘法 (OLS) 与广义线性模型 (GLM)。不用太深入,可以说 GLM 通过放宽一些假设来“改进”OLS,使其对不同类型的数据更加稳健。底层的训练算法也有些不同;OLS 最小化均方根误差 (RMSE),而 GLM 最小化偏差。(我意识到 RMSE 是偏差的一个特例)。这使我们能够基于伽马分布、逆高斯等建立线性模型。
我的问题是:对于梯度提升树,同样的逻辑是否成立?由于我们现在正在使用基于树的算法,我认为它不受与线性模型相同的假设/分布限制。例如,在 XGBoost 包中,回归的默认目标函数是 RMSE。如果您愿意,您可以定义自定义目标,但这有关系吗?这样做有意义吗?
换句话说,我们是否可以通过将 XGBoost 设置为最小化偏差(例如,伽马分布)与 RMSE 来提高我们的预测能力?