我以前使用过 GAM,我试图对一个对数转换的变量进行回归。对数变换在预测变量的平均值中引入了负偏差,我通过将每个预测相乘来对此进行校正因数
在哪里是 GAM 的残差。
现在我正在使用 XGB,并尝试对对数转换的变量进行回归再来一次。预测满足
所以总的来说它看起来不错。但是,当我exp
-transform 我得到的变量时
这要糟糕得多。我怀疑这是由于负面偏见。有没有办法像 GAM/GLM 那样纠正 XGB 中的偏差?
我以前使用过 GAM,我试图对一个对数转换的变量进行回归。对数变换在预测变量的平均值中引入了负偏差,我通过将每个预测相乘来对此进行校正因数
在哪里是 GAM 的残差。
现在我正在使用 XGB,并尝试对对数转换的变量进行回归再来一次。预测满足
所以总的来说它看起来不错。但是,当我exp
-transform 我得到的变量时
这要糟糕得多。我怀疑这是由于负面偏见。有没有办法像 GAM/GLM 那样纠正 XGB 中的偏差?
从这个角度来看,现代 ML 回归技术与经典回归技术没有什么不同。对数尺度上的平均无偏模型在重新转换后将自动具有平均偏差(通过 Jensen 不等式)。
根据您分析的目的,应用一些重新转换偏差校正因子可能对 XGBoost 等算法也很有用。(但要小心对拦截施加 L1/L2 惩罚的模型——这种情况很少见。)
具体的校正因子可以直接从残差中计算出来,方法与 OLS 相同。