我正在将 Keras 用于一个项目。我想知道在卷积层(即Conv2D
Keras)中添加任何类型的正则化组件(例如内核、偏差或活动正则化)是否有意义。
如果是,那么哪种正则化对 conv2d 层最有用
- 核心
- 偏见
- 活动
正如这里所解释的,正则化技术对于全连接(密集)层很有用。conv2D 有这样的直觉/逻辑吗?
我正在将 Keras 用于一个项目。我想知道在卷积层(即Conv2D
Keras)中添加任何类型的正则化组件(例如内核、偏差或活动正则化)是否有意义。
如果是,那么哪种正则化对 conv2d 层最有用
正如这里所解释的,正则化技术对于全连接(密集)层很有用。conv2D 有这样的直觉/逻辑吗?
如今,人们不倾向于添加太多的正则化,例如 到卷积网络。通常,正则化是通过使用 dropout 和批量归一化等技术实现的(尽管这种正则化实际上是如何发生的还不太清楚)。
话虽如此,对于您的特定问题可能会有所不同。我建议在尝试了 dropout 和 batch norm 之后,你应该尝试并查看预测性能如何在验证集上受到影响。