这个问题与 Light GBM 中的 L1 和 L2 正则化参数有关。根据官方文档:
reg_alpha (float, optional (default=0.))
– 权重的 L1 正则化项。
reg_lambda (float, optional (default=0.))
– 权重的 L2 正则化项
我见过数据科学家同时使用这两个参数,理想情况下你要么使用 L1 要么使用 L2,而不是同时使用。
在阅读有关调整 LGBM 参数的信息时,我遇到了一个这样的案例:Kaggle 官方 GBDT 规范和优化研讨会在巴黎,讲师是 ML 专家。这些专家在 LGBM 模型中使用了 L1 和 L2 参数的正值。下面的链接(Ctrl+F 'search_spaces' 直接到达这个长内核中的参数网格)
http://www.kaggle.com/lucamassaron/kaggle-days-paris-gbdt-workshop
我在 XGBoost 实现中也看到了同样的情况。
我的问题是为什么在 LGBM/XGBoost 中同时使用两者。
谢谢。