我正在阅读 GPML 书,在第 2 章(第 15 页)中,它讲述了如何使用高斯过程(GP)进行回归,但我很难弄清楚它是如何工作的。
在参数模型的贝叶斯推理中,我们首先选择模型参数的先验, 那是; 第二,给定训练数据,我们计算似然度; 最后我们有作为, 将用于预测分布
,以上就是我们在贝叶斯推理中对参数模型所做的,对吧?
好吧,正如书中所说,GP是非参数的,据我所知,在指定均值函数之后 和协方差函数 , 我们有一个 GP over 函数,
,这是先验的. 现在我有一个无噪声的训练数据集
,我以为我应该计算似然 然后是后 ,最后使用后验进行预测。
然而,这不是本书所做的!我的意思是,在指定先验之后,它不计算似然性和后验,而只是直接进行预测预测。
问题:
1)为什么不计算似然和后验?仅仅因为 GP 是非参数的,所以我们不这样做?
2)正如书中所做的(第15~16页),它通过训练数据集的联合分布得出预测分布和测试数据集,称为联合先验。好吧,这让我很困惑,为什么要把它们结合在一起?
3)我看到一些文章调用潜变量,为什么?