我理解为什么像 DBN(深度信念网络)或 DBM(深度 Boltzmann 机器)这样的深度生成模型能够捕获数据中的底层结构并将其用于各种任务(分类、回归、多模态表示等)。
但是对于像学习深度生成模型这样的分类任务,我想知道为什么网络像前馈网络这样在标记数据上进行微调,为什么只使用最后一个隐藏层进行分类?
在微调期间,由于我们正在更新分类任务的权重(与生成任务的目标不同),网络是否会失去一些重新生成正确数据的能力?(因此可用于不同的分类任务?)
除了只使用最后一层,是否可以使用不同层的隐藏单元的分区来执行分类任务而不修改权重?例如,通过获取最后两层的隐藏单元子集(抽象表示的子集)并使用像 SVM 这样的简单分类器?
先感谢您!