我正在阅读 keras 的默认初始化是glorot_uniform.
但是,我看到的所有教程都使用relu激活作为隐藏层的首选,但我没有看到它们将这些层的初始化指定为he.
这些 relu 层使用 he 而不是 glorot 会更好吗?
正如 OReilly 的使用 Scikit-Learn 和 Tensorflow 的动手机器学习中所见:
| initialization | activation |
+----------------+-------------------------------+
| glorot | none, tanh, logistic, softmax |
| he | relu & variants |
| lecun | selu |