在逻辑回归的建模过程中是否实际计算过 logit 变换?

数据挖掘 线性回归 逻辑回归
2022-03-11 02:51:42

我一直想围绕逻辑回归、logit 变换和 sigmoid 函数。

对数变换: 在此处输入图像描述

据我了解,在实践中,我们要做的就是最大化以下对数似然性(以获得最适合数据的 sigmoid 参数): 这涉及某种形式的梯度下降来找到最大化上述表达式的权重。对数似然 在此处输入图像描述

我有点担心的是我在这里的任何地方都看不到 logit 变换,也就是说,它看起来甚至没有在建模过程中使用。

那么逻辑回归中是否真的计算过 logit 变换?或者它只是用来设置问题,作为最大化对数似然的基本原理(而不是计算线性最小二乘)?

它有点类似于下面的问题,我知道 logit 是 sigmoid 的倒数,从这个意义上说,它在建模过程中被“使用”,但我在建模过程中的任何地方都看不到 log 几率。谢谢,

Logit函数的目的是什么?在模型构建过程的哪个阶段使用这个 logit 函数?

1个回答

基本上,Logit 函数是普通回归的一系列转换。普通回归的转换通常被称为“链接函数”它是:

普通最小二乘法 (OLS) -> 逻辑函数 -> 逻辑函数

你可能已经知道这些方程,但我还是要把它们写出来:


OLS 为您提供单个预测值

OLS = β_1 X_1+β_2 X_2+⋯β_i X_i


逻辑函数为您提供Y = 1 的概率

逻辑函数 = 1/(1+exp⁡[-1(OLS)])


Logit 函数为您提供Y = 1 的对数几率

Logit 函数 = log_e(Logistic 函数 / (1-Logistic 函数))


您在询问是否实际使用过 logit 函数,答案是肯定的,但您可能看不到它,因为模型摘要将显示系数(β)而不是它们所在的方程。您的首选语言在估计你的系数时肯定会使用这些方程,但没有理由向用户展示它们,因为用户是首先指定链接函数的人。

glm(y ~ x1 + x2, data = my.df, family = binomial(link = "logit"))