据我了解,深度神经网络通过将特征分层在一起来执行“表示学习”。这允许在特征中学习非常高维的结构。当然,它是一个具有固定数量参数的参数模型,因此它具有通常的局限性,即模型复杂度可能难以调整。
是否有贝叶斯(非参数)方法来学习特征空间中的此类结构,允许模型复杂性适应数据?相关型号包括:
- Dirichlet 处理混合模型,它允许将空间划分为无限的集群,允许数据选择有限的数量
- 像印度自助餐过程(IBP)这样的阶乘模型,它发现了潜在的无限数量的潜在特征(又名主题)来解释数据。
然而,IBP 似乎没有学习深度表示。还有一个问题是这些方法是为无监督学习而设计的,通常我们将深度学习用于监督任务。是否存在 IBP 的变体或其他允许表示随数据需求增长的方法?