轮廓似然性:为什么要在跟踪特定参数的轮廓时优化所有其他参数?

机器算法验证 直觉 轮廓似然
2022-03-23 10:11:24

轮廓似然有时用于从拟合模型的 n 维参数获取参数置信限的估计值。例如,它可以用来代替蒙特卡洛估计。我不明白算法本身的直觉。请参阅 Vanlier 等人的论文“常微分方程描述的生化模型中的参数不确定性”的第 4.4 节。(2013),数学生物科学。

假设一个模型已经优化并且找到了一个最小值。根据该算法,选择一个参数并缓慢改变。每次更改后,所有其他未更改的参数都以更改参数的新值重新优化。记录这个新优化点的卡方。重复此过程,直到获得卡方曲线。该过程可以依次应用于每个参数,并且卡方的变化可以用于定义特定参数的置信区域。

我想了解为什么在我们分析所选参数时必须优化其他参数的直觉?例如,为什么我们不能只更改参数(保持其他参数不变)并观察卡方如何偏离最优值?这难道不会告诉我们曲率是如何变化的,从而让我们了解我们对参数的信心吗?

1个回答

您可以将配置文件置信区间视为似然比检验的倒置;您正在比较允许您感兴趣的参数变化的模型与一组嵌套模型,其中感兴趣的参数是固定的。您的置信区间是参数固定且似然比无法拒绝的一组值。在似然比检验中,您比较每个模型在 MLE 处的似然。因此,您必须优化完整模型和嵌套模型的所有自由参数。如果您更改一个参数,那么其他参数的最佳值很可能会发生变化,因此您不能只是从完整模型中“回收”它们。

为了进一步探索这一点,请考虑一个回归模型,其中两个协变量是高度共线的。从我们从研究线性回归中学到的知识,我们应该知道,任何一个预测变量的置信区间都应该非常宽,因为考虑到它们的共线性,很难区分第一个变量和第二个变量的影响。现在,如果我们尝试为预测变量 1 制作轮廓置信区间,但固定预测变量 2,我们将(错误地)得到一个非常窄的置信区间;这相当于固定第二个系数,减去它的影响,然后计算第一个系数的置信区间,而不包括模型中的第二个协变量。

简而言之,您需要允许其他参数发生变化,以说明您感兴趣的参数的不确定性可能与模型中其他参数的不确定性相关联。