当数据集具有许多相关特征时,我在评论中阅读了对决策树而不是神经网络等线性模型的建议。因为要避免多重共线性。已经提出了类似的问题,但没有真正回答。 https://stats.stackexchange.com/questions/137573/do-classification-trees-need-to-consider-the-correlation-between-attributes
或者在这里 的监督学习中,为什么拥有相关特征是不好的?
我的问题:我有一个大约 30 列的数据集。10 列与目标/因变量具有高度相关性。数据是数字的。如果可能,我想做一个预测(回归模型)包括所有变量?
一个大问题是避免多重共线性。
- 当 10 个特征高度相关时,是否存在好的决策树回归模型?(如果我按照链接的答案进行操作,但对此没有很好的解释)。
- 是否有科学或数学解释或建议(使用决策树回归)?