在文本分类(情感分类)的问题中,我使用的是LASSO方法。我使用的特征主要是 Ngrams(每 N 个连续的单词),我专门使用 LASSO,以便我可以对特征进行排序并提取分类问题中重要 Ngrams 的集合。
我的问题是关于调整alphascikitlearn 模型中的参数:我知道当我设置为alpha接近 1 时,选择的特征数量会变得更少。所以我想问:
- 选择重要特征数量的最佳实践是什么,因此是 alpha 值(如果我寻求最高分数而不是模型解释,则可以进行交叉验证),但是是否有一些东西可以衡量“分类过程的最少足够数量的特征” “?
- 如果我决定只选择前 1000 个特征并设置 alpha 以返回 1000 个非零系数的特征。这里的 LASSO 方法会不同于使用正常的线性回归并对前 1000 个特征进行排名吗?