据我了解,SGD 分类器和 Logistic 回归似乎相似。具有 loss = 'log' 的 SGD 分类器实现 Logistic 回归,而 loss = 'hinge' 实现线性 SVM。我也知道逻辑回归使用梯度下降作为优化函数,而 SGD 使用收敛速度更快的随机梯度下降。但是在哪些场景中使用这两种算法中的哪一种呢?此外,SGD 和 Logistic 回归有何相似之处,它们有何不同?
SGD 分类器和 Logisitc 回归有什么区别?
数据挖掘
机器学习
逻辑回归
梯度下降
损失函数
2021-09-19 08:24:56
1个回答
欢迎来到 SE:数据科学。
SGD 是一种优化方法,而逻辑回归 (LR) 是一种机器学习算法/模型。你可以认为机器学习模型定义了一个损失函数,优化方法将其最小化/最大化。
一些机器学习库可能会让用户对这两个概念感到困惑。例如,在scikit-learn中有一个称为模型的模型SGDClassifier
,它可能会误导一些用户认为 SGD 是分类器。但是不,那是由 SGD 优化的线性分类器。
一般来说,SGD 可用于广泛的机器学习算法,而不仅仅是 LR 或线性模型。LR 可以使用其他优化器,如 L-BFGS、共轭梯度或类牛顿方法。
其它你可能感兴趣的问题