我目前正在研究Bianca Zadrozny的论文Learning and Evaluating Classifiers under Sample Selection Bias。在第3.2 节中。逻辑回归,作者说如下:
3.2. 逻辑回归 在逻辑回归中,我们使用最大似然来找到参数向量以下型号:
使用样本选择偏差,我们将改为拟合:然而,因为我们假设独立于给定我们有. 因此,逻辑回归不受样本选择偏差的影响,除了样本数量减少的事实。渐近地,只要大于零,选定样本的结果接近随机样本的结果。事实上,对于任何建模的学习者来说都是如此直接地。这些都是本地学习者。
这部分我不清楚:
然而,因为我们假设独立于给定我们有. 因此,逻辑回归不受样本选择偏差的影响,除了样本数量减少的事实。
“减少例子的数量”是什么意思,为什么会这样?