是否存在以最大值为 1 的 ReLU 的封闭形式解决方案?我正在尝试为像素强度 0 <= x <= 1 生成输出值,但我的输出生成的值大于 1。我该如何解决这个问题?
如果 x>1,则有界 ReLU 为 1?
数据挖掘
机器学习
2022-02-15 17:36:37
2个回答
ReLU 本身就是一种非线性,其优势在于它们的线性状态,这可以防止它过早饱和。
话虽如此,对于您的情况,有几个选择是剪辑 ReLU 的输出或在它们之后(或代替它们)放置 sigmoid(或 tanh,调整输出范围)。
使用 sigmoid 或 tanh。我认为在你的情况下使用裁剪的 ReLU 也是没有意义的,因为除了@ncasas 所说的之外,对于小于零或大于你的裁剪阈值(即 1)的值,你不会得到梯度,可能会使学习变得更加困难。
其它你可能感兴趣的问题