我一直在阅读 CNN。不同的令人困惑的事情之一是人们总是谈论规范化层。常见的归一化层是 ReLU 层。但是我从来没有遇到过关于为什么突然之间激活函数在 CNN 中成为它们自己的层的解释,而它们只是MLP 中完全连接层的一部分。
为什么在 CNN 中有专用的激活层,而不是像 MLP 中的密集层那样将激活应用于卷积层的输出卷作为卷积层的一部分?
我想,最终,没有功能上的区别。我们也可以在 MLP 中使用单独的激活层,而不是在其全连接层中使用激活函数。但惯例的这种差异仍然令人恼火。好吧,假设它只是公约的产物。