我不是在问什么激活函数更好。我想知道在研究或部署中更多使用哪些激活函数。另外,它们是组合使用的吗?例如,ReLU、ELU 等。我会很感激对此的任何统计数据或见解。
目前流行哪些激活函数?
人工智能
神经网络
深度学习
激活函数
2021-11-16 11:54:11
1个回答
目前,ReLU 和 ELU 都是神经网络 (NN) 中最流行的激活函数 (AF)。这是因为它们消除了导致训练过程中出现重大问题并降低 NN 模型的准确性和性能的梯度消失问题。
此外,这些 AF,更具体地说是 ReLU,是学习速度非常快的 AF,这使得它们在研究中更加有用。
但是,根据您从事的神经网络类型,关注新研究始终是一个好习惯。
其它你可能感兴趣的问题