我们如何解决这个逻辑回归问题?

数据挖掘 逻辑回归
2022-02-21 01:20:13

这个问题能找到准确的答案吗?凭直觉,我认为答案是 0。但是有人可以解释如何解决这个问题的步骤吗?

在此处输入图像描述

2个回答

可以发现,假设一个合适的学习率、一个合适的阈值和二元交叉熵成本,因为它将这个问题转化为一个凸问题,其中我们有一个全局最优值。我们没有逻辑回归的封闭形式解决方案,但是通过梯度下降我们可以任意接近这个最优值。我建议从scikit-learn或熟悉的库运行 logreg。

这个特殊的问题有完美的分离,所以你的直觉可以变得严谨。否则,正如古内斯所说,逻辑回归不容易手动优化。

用于对数赔率的线性模型。y=β0+β1f1+β2f2+β3f3

首先作为动力,请注意在处的评估只返回截距如果我们的模型能够获得完美的精度,那么从我们得到,从得到,但从得到如果,这是不可能的,因此我们期望并且输出为 0。x6β0x1β0+β1<0x3β0+β2<0x5β0+β1+β2>0β00y6=β0<0

为了准确起见,我们可以找到满足上述三个不等式的是适当的。然后对于中的每一个,我们有,对于我们有迫使这些对数赔率趋向,因此对数似然趋于无穷大。β±β0=3αβ1=β2=2αβ3=0x1,x2,x3y=αx4,x5y=+αα±

换句话说(更短的),我们通过平面完美分离。3+2f1+2f2=0