我正在尝试使用生成对抗网络实现逼真的单图像超分辨率中描述的模型,其中作者在第3.2节中说
我们将 LR 输入图像的范围缩放到 [0, 1],将 HR 图像的范围缩放到 [-1, 1]。因此,MSE 损失是在强度范围 [-1, 1] 的图像上计算的
现在我知道当灰度图像以浮点数表示时,它的值在 [0,1] 范围内,但是如何在 [0,1] 和 [-1,1] 范围内缩放彩色图像?为什么作者对输入图像和高分辨率图像使用两种不同的尺度?
任何见解都会有所帮助。
我正在尝试使用生成对抗网络实现逼真的单图像超分辨率中描述的模型,其中作者在第3.2节中说
我们将 LR 输入图像的范围缩放到 [0, 1],将 HR 图像的范围缩放到 [-1, 1]。因此,MSE 损失是在强度范围 [-1, 1] 的图像上计算的
现在我知道当灰度图像以浮点数表示时,它的值在 [0,1] 范围内,但是如何在 [0,1] 和 [-1,1] 范围内缩放彩色图像?为什么作者对输入图像和高分辨率图像使用两种不同的尺度?
任何见解都会有所帮助。
您可以使用以下缩放比例
重新调整为或者.
输入的重新缩放试图将权重范围保持在一个小范围内。从理论上讲,没有必要重新调整您的输入,因为它可以通过适当重新定义您的权重来补偿。实际上这很重要,因为您的权重可能占据很大范围的值。
为了理解这一点,我将构建一个带有两个输入的玩具示例 和 和一个简单的线性回归. 假设权重的真实值为 和 . 现在,假设我们有相同的数据集,但具有不同的尺度 和 这样 和 . 为了获得相同的输入,我们需要有反向权重导致 和 . 理论上这没什么大不了的,但实际上我们看到对于较大的值 我们将需要使用存储数值的变量 和 .
我不知道引用论文的作者使用特定转换的原因。两者都应该导致几乎相同的性能,因为偏差应该能够补偿额外的并且重新调整可以通过每个输入的权重来补偿。由于许多优化技术的随机性以及最终解决方案很可能不是全局最优,因此可能存在差异。如果我想将我的模型与论文中的特定模型进行比较,我会选择一个。在这种情况下,我将使用与论文中应用的相同的转换。
您还可以使用不同的比例,以便通过查看转换后的值来更好地区分输入类型(低分辨率与高分辨率)。