例如:
逻辑回归的概率方法涉及最大化似然函数的MLE(最大似然估计),或者换句话说,使用偏导数为最佳拟合线找到最佳参数。然后将这些参数用于 logit 和 sigmoid 函数以进行最终的二元分类。
几何方法包括分别将 +1 和 -1 分配给类 1 和 0 。一条随机线适合数据。计算点与线之间的距离,并根据y*d公式识别正确和错误的错误分类。这个过程一直持续到我们找到一条错误分类最少的线。
这些分类方法彼此完全不同。那么,逻辑回归使用哪一种呢?为什么我们有两种不同的方法?
例如:
逻辑回归的概率方法涉及最大化似然函数的MLE(最大似然估计),或者换句话说,使用偏导数为最佳拟合线找到最佳参数。然后将这些参数用于 logit 和 sigmoid 函数以进行最终的二元分类。
几何方法包括分别将 +1 和 -1 分配给类 1 和 0 。一条随机线适合数据。计算点与线之间的距离,并根据y*d公式识别正确和错误的错误分类。这个过程一直持续到我们找到一条错误分类最少的线。
这些分类方法彼此完全不同。那么,逻辑回归使用哪一种呢?为什么我们有两种不同的方法?
逻辑回归使用第一种方法。
尽管存在这种常见的误解,但逻辑回归并不进行分类。逻辑回归返回概率值,然后我们可以对概率值做我们想做的事,这可能是分类,也可能不是分类。