因为如果我们不声明activation function,默认将设置linear为 Conv2D 层。写的是真的吗:
model.add(Conv2D(32, kernel_size=(3, 3),
input_shape=(380,380,1))
model.add(LeakyReLU(alpha=0.01))
我的意思是现在通过书面行,Conv2D 层的激活函数设置为LeakyRelu或不设置?
此外,我想知道什么是最好的alpha?我找不到任何资源来分析它。