从回归神经网络模型生成的常用技术

数据挖掘 神经网络 回归 参考请求 生成模型
2021-09-20 17:01:55

我习惯于训练为生成而设计的神经网络,例如 GAN 或 VAE。

我想知道根据 Deep Dream 的想法,生成数据的常用技术是什么,可以最大限度地减少回归模型学习的目标/能量。

我可以想到两种方法:

1) 使用经过训练的回归神经网络作为另一个神经网络的损失函数(及其梯度),该神经网络经过训练以产生产生给定能量/目标的结构,如第一个神经网络给定的那样。

2) 使用标准优化算法(不是神经网络)来找出哪些输入最小化了回归模型的输出。

有没有其他常见的方法可以做到这一点?最了解/最有效的方法是什么?

任何想法/参考都会很棒!

1个回答

φDR 成为您训练有素的可微回归模型,其中 D是数据空间,例如图像。GRdD 是来自潜在空间的一些生成模型或解码器(例如,GAN 或来自 VAE 的解码器)。

假设我们要找到 XD 这样 X=分钟是的φ(是的). 然后有两种明显的方法:

  1. 数据空间中的梯度下降:即求解X=分钟是的φ(是的)通过迭代X=X-1-ηφ(X-1).

  2. 潜在空间中的梯度下降:即求解z=分钟φ(G())通过迭代z=z-1-η(φ(G(z-1))).

两者都很常见。(2)的主要好处是(a)你更有可能得到一个“合理的”X=G(z)因为发电机G被训练给你一个(即,X应该看起来像是来自D, 在 (1)), (b)中不能保证 d通常比|D|,使优化更容易,并且(c)甚至可能无法做到(1)(例如,在分子生成中,由于离散性问题,我们可以做到(2)但不能做到(1))。然而,有一个很大的缺点:需要学习G,这本身就不是微不足道的。(因此为什么例如生成对抗性示例,(1)更受欢迎。)

在某些情况下,人们可能还想避免基于梯度的优化,在这种情况下,我经常看到使用贝叶斯优化方法。