目前流行哪些激活函数?

人工智能 神经网络 深度学习 激活函数
2021-11-16 11:54:11

我不是在问什么激活函数更好。我想知道在研究或部署中更多使用哪些激活函数。另外,它们是组合使用的吗?例如,ReLU、ELU 等。我会很感激对此的任何统计数据或见解。

1个回答

目前,ReLU 和 ELU 都是神经网络 (NN) 中最流行的激活函数 (AF)。这是因为它们消除了导致训练过程中出现重大问题并降低 NN 模型的准确性和性能的梯度消失问题。

此外,这些 AF,更具体地说是 ReLU,是学习速度非常快的 AF,这使得它们在研究中更加有用。

但是,根据您从事的神经网络类型,关注新研究始终是一个好习惯。