正如我们在这个问题中看到的,构建决策树的推荐策略是后剪枝。
这两种方法是子树替换和子树提升。在每个节点,算法决定是否应该执行子树替换、子树提升或保持子树不变。
- 子树替换选择一个子树并用一个叶子替换它。
- 子树提升选择一棵子树并将其替换为子树(即,“子子树”替换其父树)
有什么优点和缺点,我们应该什么时候使用它们?
正如我们在这个问题中看到的,构建决策树的推荐策略是后剪枝。
这两种方法是子树替换和子树提升。在每个节点,算法决定是否应该执行子树替换、子树提升或保持子树不变。
有什么优点和缺点,我们应该什么时候使用它们?
我的下意识反应是:
“构建”的方法,如果你的意思是构建 = 增长,是在最好的叶子上分裂,直到违反停止标准。
像所有机器学习工具一样,树有两个目标,它们构成了剪枝过程的优劣度量:最大化泛化,最小化表示错误。如果你能同意这两个,在一般意义上,那么我可以继续回答。