无论如何,我都不是自动编码器或神经网络方面的专家,所以如果这是一个愚蠢的问题,请原谅我。
为了降维或可视化高维数据中的集群,我们可以使用自动编码器通过检查具有 2 个节点的网络层的输出来创建(有损)二维表示。例如,使用以下架构,我们将检查第三层的输出
在哪里是输入数据和是节点的数量第层。
现在,我的问题是,为什么我们想要一个对称的架构?深度“压缩”阶段的镜像不是意味着我们可能有一个类似复杂的“解压”阶段,导致 2 节点输出不强制非常直观?换句话说,是否具有更简单的解码阶段会导致具有 2 个节点的层的输出也必然更简单?
我的想法是,减压阶段越不复杂,2D 表示就必须越简单(更线性?)。更复杂的解压缩阶段将允许更复杂的 2D 表示。