我可以在“任何”深度神经网络上应用重新参数化技巧吗?

人工智能 神经网络 训练 自动编码器
2021-10-30 14:18:15

在Marc Peter Deisenroth 等人的题为“机器学习数学”的测试书中名为“向量微积分”的章节中,我一次遇到了“重新参数化技巧” 。

当我们变换随机变量和概率分布时,雅可比行列式和变量变换将变得相关。在使用重新参数化技巧(也称为无限扰动分析)训练深度神经网络的背景下,这些转换与机器学习极为相关

该技巧已在引用段落中的神经网络训练上下文中使用。但是当我搜索重新参数化技巧时,我发现它只是或广泛用于训练自动编码器。

在训练传统深度神经网络的情况下,这个技巧有用吗?

2个回答

重新参数化技巧(也称为路径导数无穷小扰动分析)是一种计算随机变量函数梯度的方法。例如,它用于变分自动编码器或确定性策略梯度算法。

如果您打算使用涉及随机变量的模型,您肯定需要了解重新参数化技巧是什么。

您还需要了解另一种计算随机变量函数梯度的方法,即似然比(也称为得分函数REINFORCE 梯度)。

如果您对“传统”神经网络的定义不涉及随机变量,那么这种方法是无关紧要的。

是的,重新参数化技巧在变分贝叶斯神经网络的上下文中可能很有用,尽管其他更有效的方差减少技术更常用(特别是翻转估计器)。请参阅使用 Flipout 的 BNN实现,但用于实现该示例的库 TensorFlow Probability 也提供了实现重新参数化技巧的层

请注意,重新参数化技巧用于变分自动编码器 (VAE)的上下文中(因此不在确定性自动编码器的上下文中)。VAE 和 BNN 有很多共同点:两者都基于随机变分推理(即变分推理与随机梯度下降相结合)。因此,每当您进行一些采样或一些随机操作时,重新参数化技巧可能会很有用。但是,现在,我只熟悉使用它的这两种类型的模型。