这可能是一个非常简单的问题。假设我们使用一些度量来删除特征,无论是 AIC、套索等正则化、变量重要性、t 检验等......
假设我们在继续改进模型时再次使用相同的技术,是否可以安全地假设任何删除的特征将不再重要?我的理解是某些特征可能与其他特征相关——但如果是这种情况,你真的只需要包含其中一个,尤其是当它们高度相关时。
除此之外,我想不出你为什么要在模型中添加一个特征,一旦它被删除。
我问这个问题的原因是因为我正在尝试构建一个具有许多功能的大型模型。因为我有这么多的数据和有限的技术,我希望按顺序建立一个模型。用 10 个特征训练模型,删除不重要的特征,然后通过添加 10 个特征来重建它,删除不重要的特征,然后继续直到我达到计算机的容量。
这个过程有什么问题吗?
谢谢!