当为受限玻尔兹曼机使用持久 CD 学习算法时,我们在第一次迭代中从数据点开始我们的 Gibbs 采样链,但与普通 CD 不同的是,在接下来的迭代中,我们不会从我们的链开始。相反,我们从上一次迭代中的 Gibbs 采样链结束的地方开始。
在正常的 CD 算法中,每次迭代都会评估一小批数据点,并从这些数据点本身开始计算 Gibbs 采样链。
在持久 CD 中,我们是否应该为每个数据点保留 Gibbs 采样链?还是我们应该保留一小批 Gibbs 采样链,它从当前迭代中当前未评估的数据点开始?
在我看来,为每个数据点保留 Gibbs 采样链太麻烦了,但另一方面,将当前样本的信号与不是从当前开始的长 Gibbs 链之后的信号进行比较似乎是不够的样品。