我们可以只使用带有 log loss 的 SGDClassifier 而不是 Logistic 回归,它们会有相似的结果吗?
Logistic回归和带有对数损失的SGDClassifier或SVM和带有铰链损失的SGDClassifer有什么区别?
数据挖掘
数据科学模型
梯度下降
线性模型
2022-02-05 18:28:06
1个回答
从实际的角度来看,是的,您可以无缝地使用这两个选项并获得一般相似的结果(检查这个scikit 学习功能),但是:
- SGD(随机梯度下降)是一种优化算法
- log loss/hinge loss ...是在所选优化策略(在您的情况下为SGD)中使用的损失函数,以找到适合此类线性模型的最佳权重,但其他优化求解器可以与这些算法一起使用。有关使用 sklearn 的逻辑回归,请参阅这篇文章,其中您有求解器参数,除其他外,它可以是“sag”(随机平均梯度下降),但也可以接受像“lfbs”之类的其他参数。