我对深度学习只有一个基本的了解,但是通过它,我对如何逼近 NN 的全局最小值有了一个想法。
但是,对于它的激活功能,我只能使用:
- 添加
- 逐点乘法
- 标量积
- 与固定矩阵相乘
在向量上。因此,例如,任何多项式都有效,因为它只是乘法和加法的组合。因此,通常的激活函数如 sigmoid 和 ReLU 不能用作 sigmoid 需要除法和指数,而 ReLU 需要能够区分情况。
就我所见,我可以使用的函数都是无界的,所以不能使用通常的通用逼近定理。然而,ReLU 似乎也很有用并且是无界的。
因此我的问题是:你知道满足我标准的有用激活函数吗?或者这是不可能的?