我已经为最后一个密集层训练了一个具有线性激活函数的模型,但是我有一个约束,它禁止目标的负值是一个连续的正值。
我可以使用ReLU作为输出层的激活吗?我不敢尝试,因为它通常在隐藏层中用作整流器。我正在使用Keras。
我已经为最后一个密集层训练了一个具有线性激活函数的模型,但是我有一个约束,它禁止目标的负值是一个连续的正值。
我可以使用ReLU作为输出层的激活吗?我不敢尝试,因为它通常在隐藏层中用作整流器。我正在使用Keras。
是的你可以。基本上,对于回归任务,习惯上使用线性函数作为非线性,因为它是可微的并且不限制输出。这意味着您可以使用输入进行任何输出。人们不使用tanh或sigmoid作为回归任务的最后一层的激活函数,因为它们是有限的并且不能生成所有需要的数字。在您的任务中,您可以使用ReLU作为非线性。隐藏层中非线性的概念是添加非线性边界,对于回归任务的最后一层,它应该做出所有可能的选择。在你的情况下,ReLU是最好的。