背景:过去约 4 年(后alexnet)的许多现代研究似乎已经不再使用神经网络的生成预训练来实现最先进的分类结果。
例如,这里mnist 的最高结果包括前 50 名中只有 2 篇论文似乎使用了生成模型,这两者都是 RBM 的。其他 48 篇获奖论文是关于不同的判别式前馈架构,他们付出了很多努力来寻找更好/新颖的权重初始化和激活函数,这些初始化和激活函数不同于 RBM 和许多旧神经网络中使用的 sigmoid。
问题:是否有任何现代理由不再使用受限玻尔兹曼机?
如果没有,是否可以对这些前馈架构进行事实上的修改以使其任何层生成?
动机:我问是因为我看到的一些可用模型,通常是 RBM 上的变体,不一定具有与这些生成层/模型明显类似的判别对应物,反之亦然。例如:
此外,这些显然也是从 2010 年、2011 年和 2009 年开始的前 alexnet。