概率密度函数具有很好的特征:它必须是可测量的,并且必须积分到 1,并且在其支持度上必须是非负的。在这种情况下,参数向量被视为固定的,并且包含在一系列参数分布中,例如 Exp() 或威布尔或...
对于估计和统计,引入了可能性的概念。粗略地说,它是参数而不是数据的函数,因为当我们最大化似然性时,我们会根据该参数分布族而不是相反的方式找到给出最“可能”数据集的参数。但是,据我了解:可能性没有功能要求. 当然,它将是非零的,因为它是密度的乘积。但如果我们积分超过,它可能加起来不等于 1的支持(我们必须乘以先验才能得到那种贝叶斯结果)。
然后我们进入这些不同形式的似然性:准似然、伪似然、条件似然、部分似然等等。这些分别代表当我们说“嗯......这不是一个适当的可能性,但我将最大化它并看看会发生什么”时的情况。此类标题的授权表明,只有当我们确定概率模型适用于数据时,才需要使用“可能性”一词。但在大多数实际情况下会是这样吗?当然,这涉及既不可验证也不有趣的假设。
以配对 t 检验为例。这是最大的条件似然。我不关心对之间的平均差,所以通过减去成对的观察值,我可以直接对单变量的对内平均差进行建模。为什么不能说我使用的是正态概率模型来计算对内差异?我不能把这种事情称为可能性吗?
是否有更实用或更稳健的方式来理解最大似然估计?我们不应该在所有估计和推理中称一切为伪或准可能性吗?