我有一个具有单个标量回归任务的 CNN。我想知道重建图像(用于学习视觉概念)的额外任务(在 DeepMind演示文稿中看到的具有变分自动编码器的损失和重新参数化技巧)是否可能有助于回归的主要任务。
所以你可以想象一些卷积具有特征提取的作用,输出 X(假设是一个 256 个值的向量),X 进入 VAE,计算 Z,然后是重建图像。然后原始回归任务将采用 X 或 Z 来计算该标量值。
有没有人尝试过这种方法,值得吗?谢谢
我有一个具有单个标量回归任务的 CNN。我想知道重建图像(用于学习视觉概念)的额外任务(在 DeepMind演示文稿中看到的具有变分自动编码器的损失和重新参数化技巧)是否可能有助于回归的主要任务。
所以你可以想象一些卷积具有特征提取的作用,输出 X(假设是一个 256 个值的向量),X 进入 VAE,计算 Z,然后是重建图像。然后原始回归任务将采用 X 或 Z 来计算该标量值。
有没有人尝试过这种方法,值得吗?谢谢
我还没有研究过这个,但我想我可以给你一个使用 VAE 的理论视角。回归是一项监督学习任务,基本上是从输入到输出的映射,其中神经网络将逼近函数.
另一方面,VAE 有助于发现潜在变量如何影响输出。例如,如果您的任务是训练一个人的面部情绪,并且您的潜在空间包含 2 个变量和那么你可能会发现不同的改变脸上微笑的程度,同时改变可能会给眼睛下垂的量。我建议您在 ~44:00 查看来自斯坦福的视频,看看这是否真的发生或查看此博客。因此,如果您的输出包含更多特征,这些特征会根据潜在变量的变化而变化,那么 VAE 可能会很有用,但是单个标量输出只能告诉您改变潜在变量的影响率。
但是,如果您的工作只是为了更好的回归,那么自动编码器是更好的选择,因为它具有固有的去噪能力,并且足够的训练可能有助于对输入进行去噪,因此如果根据以下分类进行分类,则可以提供更好的结果潜变量。
Kingma 等人提出了一种我认为与您的想法类似的方法。对于本文中的半监督学习。该论文对该方法的描述非常差,因此我建议您查看此博客。他们使用了一个额外的分类器来重建原始输入,并在标签存在时训练分类器。