我正在阅读与 XGBoost 相关的材料。似乎这种方法不需要任何变量缩放,因为它是基于树的,而且这种方法可以捕获复杂的非线性模式、交互。它可以处理数值变量和分类变量,而且冗余变量似乎对这种方法影响不大。
通常,在预测建模中,您可能会在您拥有的所有特征中进行一些选择,也可以从您拥有的特征集中创建一些新特征。所以选择一个特征子集意味着你认为你的特征集有一些冗余;从当前功能集中创建一些新功能意味着您对当前功能进行一些功能转换。那么,这两点都应该包含在 XGBoost 中。那么,是不是说要使用 XGBoost,只需要明智地选择那些调优参数呢?使用 XGBoost 进行特征工程有什么价值?