我有一个回归问题,其中结果不是严格意义上的 0, 1,而是在从 0 到 1 的所有实数的范围内,包括。
这个问题已经在这个线程中讨论过了,尽管我的问题略有不同。
出于与通常使用逻辑回归相同的原因,我不能使用线性回归。在线性回归中 A) 非常大的 IV 值会使预测结果偏向 1 和 B) 线性回归的结果不受 0,1 限制。
从我的教科书中查看这个逻辑成本函数,我认为该等式旨在计算和不具有相同的值 0 或 1时,成本才大于 0 。
是否可以通过修改成本函数来测量所有假设错误来使用逻辑回归?
我有一个回归问题,其中结果不是严格意义上的 0, 1,而是在从 0 到 1 的所有实数的范围内,包括。
这个问题已经在这个线程中讨论过了,尽管我的问题略有不同。
出于与通常使用逻辑回归相同的原因,我不能使用线性回归。在线性回归中 A) 非常大的 IV 值会使预测结果偏向 1 和 B) 线性回归的结果不受 0,1 限制。
从我的教科书中查看这个逻辑成本函数,我认为该等式旨在计算和不具有相同的值 0 或 1时,成本才大于 0 。
是否可以通过修改成本函数来测量所有假设错误来使用逻辑回归?
当 Y 有界时,β 回归通常是有意义的;见论文“更好的柠檬榨汁机”
这允许地板和天花板的效果;它还允许对方差和均值进行建模。
你有几个选择。其中两个可能是:
使用哪一个取决于误差结构,唯一的决定方法是同时拟合它们,看看哪一个具有最适合模型假设的残差结构。我怀疑他们之间不会有太多选择。当然,出于您所说的原因的直线回归的重大改进。
由于 y 不严格为零或一(如您所说),因此成本应始终大于零。所以,我认为你不需要在模型中进行修改。
我建议两种替代模型:
如果您的结果(y 变量)是有序的,请尝试 Ordered Probit 模型。
如果您的结果(y 变量)没有排序,请尝试多项 Logit 模型。