正如标题所示,我有几个值为 -1、0 或 1 的特征。如果我将这些数据输入到神经网络中,ReLu
用作隐藏层的激活函数,负值和 0 值是否会构成NN的问题?
我听说过死亡神经元,其中使用ReLu
which 是一个逐步函数,导致任何小于或等于 0 的输入神经元停止学习并变得死亡。所以很自然,如果一个具有激活函数的 NNReLu
输入 0 或负输入,这些神经元就会死亡。
现在我的数据包含几个具有 0 和负值的特征。在这种情况下该怎么办?我应该使用LeakyReLu
还是其他一些变体ReLu
?或者我应该转换我的数据以便只保留正值吗?
编辑 1:如果负输入和 0 输入不会导致神经元死亡,那么是什么导致神经元死亡?那么为什么我们有像LeakyReLu
,之类的激活函数PReLu
,ELU
如果ReLu
单独可以处理死神经元呢?