高斯过程的对数边际似然

机器算法验证 最大似然 可能性 内核技巧 高斯过程
2022-03-07 22:06:11

根据Rasmussen 的机器学习高斯过程方程 2.30,高斯过程的对数边际似然为:

logp(y|X)=12yT(K+σn2I)1y12log|K+σn2I|n2log2π

Matlab关于高斯过程的文档将关系表述为

logp(y|X,β,θ,σ2)=12(yHβ)T(K+σn2I)1(yHβ)12log|K+σn2I|n2log2π

其中是基函数的向量,是系数向量。Hβ

我的疑惑:

  1. 为什么这两种关系有区别?
  2. 据我了解,是来自高斯过程的预测;我对吗?Hβ

谢谢

1个回答

GP 的对数边际似然(不是边际对数似然,正如你最初写的那样 - 我在你的帖子中编辑过)的更一般的公式是

logp(y|X)=12(ym(X))T(K+σn2I)1(ym(X))12log|K+σn2I|n2log2π

其中对于给定点是 GP 的均值函数并且符号表示通过将平均函数应用于中的每个点而获得的向量函数。GPML (Eq. 2.30) 中的 GP 是一个零均值 GP。m(x):RdRxm(X)X

在 Matlab 版本中,代表平均函数,表示为基函数的线性组合,它不是GP 的预测。HβH=H(x)

GP 平均预测中的点非常远的平均函数(就内核的长度尺度而言非常远),但否则通常会有所不同。X