一些消息来源说似然函数不是条件概率,有人说它是。这让我很困惑。
根据我见过的大多数资料,带有参数的分布的可能性应该是给定样本的概率质量函数的乘积:
例如在 Logistic Regression 中,我们使用优化算法来最大化似然函数(Maximum Likelihood Estimation)以获得最优参数,从而获得最终的 LR 模型。给定训练样本,我们假设它们彼此独立,我们希望最大化概率的乘积(或联合概率质量函数)。这对我来说似乎很明显。
根据关系:可能性、条件概率和故障率,“可能性不是概率,也不是条件概率”。它还提到,“可能性是仅在贝叶斯对可能性的理解中的条件概率,即,如果您假设是随机变量。”
我读到了频率论者和贝叶斯论者处理学习问题的不同观点。
根据消息来源,对于贝叶斯推理,我们有先验,似然,我们希望使用贝叶斯定理获得后验:
我不熟悉贝叶斯推理。为什么是观察数据的分布,其条件是其参数,也称为似然性?在Wikipedia中,它有时会写成。这是什么意思?
频率论者和贝叶斯论者对可能性的定义有区别吗?
谢谢。
编辑:
解释贝叶斯定理有不同的方式 - 贝叶斯解释和频率解释(参见:贝叶斯定理 - 维基百科)。