我根据我需要的输出和我知道的激活函数的属性为输出层选择激活函数。例如,我在处理概率时选择sigmoid函数,在处理正值时选择ReLU,在处理一般值时选择线性函数。
在隐藏层中,我使用leaky ReLU来避免死神经元而不是 ReLU,并使用tanh而不是sigmoid。当然,我不在隐藏单元中使用线性函数。
然而,在隐藏层中对它们的选择主要是由于反复试验。
是否有任何经验法则可以确定在某些情况下哪种激活函数可能运行良好?
尽可能笼统地使用术语情况:它可以指层的深度,神经网络的深度,该层的神经元数量,我们选择的优化器,输入特征的数量那个层,这个NN的应用等等。
我发现的激活函数越多,我在选择隐藏层中使用的函数时就越感到困惑。我不认为抛硬币是选择激活函数的好方法。