有人可以参考一篇好文章,解释为什么我们在构建卷积神经网络时在神经网络的最后一层使用 Sigmoid 激活,在中间层和输入层使用 ReLu 激活?我没有得到正确的输出结果。
何时使用 Sigmoid 函数以及何时在卷积神经网络中使用 ReLu
数据挖掘
机器学习
深度学习
喀拉斯
2022-03-11 17:03:45
1个回答
Relu解决梯度消失问题并停止不活动的神经元。在输出层使用Sigmoid,因为它的范围是 (0, 1),它可以表示二元类的概率。当你在做多分类时,使用Softmax函数更合适。
可能需要阅读更多资料,可以参考CS231n。谢谢。