最大熵建模 - 似然方程

数据挖掘 机器学习 nlp 统计数据 可能性
2022-03-05 16:05:09

我试图理解最大熵建模,我遇到了经验分布的对数似然方程,我不太理解,最终结果也等于我们在尝试使用约束最大化熵时得到的对偶函数拉格朗日乘数

Lp~(p)logx,yp(y|x)p~(x,y)=x,yp~(x,y)logp(y|x)

在哪里,

  • y是随机过程产生的结果
  • x是影响结果y
  • Lp~(p)是对数似然
  • p~是训练数据的经验分布
  • p(y|x)是模型
  • p~(x,y)1N×number of times that (x,y) occurs in the sample

有人可以解释一下在上面提到的对数似然方程中是如何提高到相反,不应该将在样本中出现的次数的幂。p(y|x)p~(x,y)p(x|y)(x,y)

我浏览了有关 max entropy 的参考教程

2个回答

有一个离散的连接概率分布其中是样本中的一个向量,而是一个参数从参数空间。 theta的函数时,我们将其称为似然函数根据 ML 原则,我们必须在某些训练集上最大化似然函数。假设样本是独立同分布的,那么 ML 通过以下方式最大化:X1,...,XnP(xθ)x=(x1,...,xn)θP(xθ)θ

theta=argmaxi=1mlog(P(xiθ))
以上部分应该复习。

为集合并令为绘制的概率。最后让是抽奖的序列,并且是基于概率 P 的独立同分布。 是抽奖的度量,即.χ{a1,...,an}P(aϕ)aix1,...,xnf(a)f(a)=|{i:xi=a}|

经验分布定义为P^(a)=f(a)aχf(α)=f(a)m

联合概率P(x1,..xm|θ)=i=1mp(xi|ϕ)f(a)

正如您在此处看到的训练数据,您的教程和我已经定义了我们的经验分布类似物并获得了相同的结果。

TLDR,这只是一个符号问题。

如果可以的话,我只会添加评论...

你对 p(y|x) 的解释是什么?通常的表达是“给定x的y的概率”,即概率分布中的自变量对应的因变量。这是您要最大化的函数,而不是反函数。

作为旁注,有两种方法可以使用右侧方程的熵形式。这可以作为正则化内核添加到成本函数中,具有调制系数;或者它可以是成本函数中的主要项——要最大化的熵——具有来自拉格朗日乘数引入的物理系统的约束。