逻辑回归和贝叶斯逻辑回归有什么区别?

机器算法验证 回归 机器学习 物流 贝叶斯
2022-03-27 02:55:10

我有点困惑这两个是否是同一个概念。如果它们不同,有什么区别?

谢谢!

3个回答

其他答案都很好。但是,为了澄清直觉并提供更多细节:

  • 在逻辑回归中,您最大化似然函数(求 MLE)。也就是说,您会找到最大化您观察到的数据的可能性MLE 没有封闭形式的解决方案,因此您需要使用迭代方法。这为您提供了我们权重的单点估计。p(y|β0,β1,x)β0,β1
  • 分布的初始信念开始那么也就是说,后验是我们对给定证据权重的更新信念,与我们的先前(初始信念)乘以可能性成正比。我们无法评估封闭形式的后验,但可以通过采样或变分方法对其进行近似。这给了我们权重的分布。例如,如果我们使用变分方法对使用正态近似,那么我们将得到的均值和方差,以及p(β0,β1)p(β0,β1|x,y)p(y|β0,β1,x)p(β0,β1)β0β1β0β1也是。

有关这两种技术的更多详细信息,这些讲座的抄写员笔记非常好http://web.cse.ohio-state.edu/~kulis/teaching/788_sp12/scribe_notes/lecture6.pdf

假设对于有一组二元观测 ,并且对于每个观测,都有一个相关的解释变量逻辑回归假设 如果您通过最大似然获得参数的点估计,那么您只需使用上述假设。但是,如果您使用贝叶斯方法获得参数的估计值,那么您需要为定义先验,称之为这个先验连同上面的逻辑回归假设是贝叶斯逻辑回归。Yii=1,,nXi

YiindBer(πi),ln(πi1πi)=β0+β1Xi.
β0β1p(β0,β1)

我并不声称自己是逻辑回归方面的专家。但我想它是这样的——假设是一个二进制随机变量,取值定义 其中是自变量(为简单起见,我假设只有一个预测变量)。然后逻辑回归假设形式 其中独立于并且具有均值,并且Y01

π=P(Y=0X),
X
ln(π1π)=β0+β1X+ϵ
ϵX0βi使用最大似然估计。对于贝叶斯逻辑回归,我想你使用类似 并为的分布先验分布这是我有限的理解,我相信线性判别分析的基础。
π=P(X=xY=0)P(Y=0)jP(X=xY=j)P(Y=j)
XY=jY