我正在分析使用决策树创建的分类器。在 scikit 的决策树中有一个称为max_depth的调优参数。这相当于修剪决策树吗?如果没有,我如何使用 scikit 修剪决策树?
dt_ap = tree.DecisionTreeClassifier(random_state=1, max_depth=13)
boosted_dt = AdaBoostClassifier(dt_ap, random_state=1)
boosted_dt.fit(X_train, Y_train)
我正在分析使用决策树创建的分类器。在 scikit 的决策树中有一个称为max_depth的调优参数。这相当于修剪决策树吗?如果没有,我如何使用 scikit 修剪决策树?
dt_ap = tree.DecisionTreeClassifier(random_state=1, max_depth=13)
boosted_dt = AdaBoostClassifier(dt_ap, random_state=1)
boosted_dt.fit(X_train, Y_train)
现在有了新版本 0.22.1,你可以!它基于最小成本复杂度修剪进行修剪:将选择具有最大成本复杂度且小于 ccp_alpha 的子树。
https://scikit-learn.org/stable/auto_examples/tree/plot_cost_complexity_pruning.html