指数线性单位 (ELU) 与呸呸呸_ _( 1 +eX)l○G(1+eX)作为深度学习的激活函数

数据挖掘 机器学习 深度学习 激活函数
2021-10-07 04:46:29

似乎 ELU(指数线性单元)被用作深度学习的激活函数。但它的图表与log(1+ex). 那为什么有log(1+ex)没有被用作激活函数而不是 ELU?

换句话说,ELU 的优势是什么?log(1+ex)?

1个回答

ReLU 及其所有变体(ReLU-6 除外)都是线性的,即y=x对于大于或等于 0 的值。

这给了 ReLU,特别是 ELU 一个优势,比如:

  • 线性意味着斜率不会平稳或饱和x变大。因此,消失的梯度问题得到了解决。

在此处输入图像描述

现在,图表y=log(1+ex) 对于 > 0 的值不是线性的。

对于较大的负值,该图会产生非常接近零的值。这也在 sigmoid 中发现,其中较大的值会产生完全饱和的激活。因此,y=log(1+ex) 可能会引发 sigmoid 和 tanh 遭受的问题。

关于 ELU:

在此处输入图像描述

ELU 对所有负值都有一条对数曲线,即 y=α(ex1). 它不会在一定程度上产生饱和燃烧,但会在较大的负值时饱和。

请参阅此处了解更多信息。

因此, y=log(1+ex) 不使用是因为负值的早期饱和以及大于 0 的值的非线性。这可能会产生问题,甚至会降低 ReLU 和变体表现出的一些特征。