以下段落选自教科书Hands-On Machine Learning with sci-kit learn & Tensorflow。我无法理解作者试图传达的内容。如果有人可以通过示例为以下段落提供解释,将不胜感激。我在 Deep Neural Networks 中提到了这些链接 Dropout,https ://www.coursera.org/lecture/deep-neural-network/dropout-regularization-eM33A,它以某种方式与相同的目标保持一致。但是,我正在寻求好的解释。请帮我。
假设 p = 50%,在这种情况下,在测试期间,一个神经元将连接到两倍于训练期间(平均)的输入神经元。为了弥补这一事实,我们需要在训练后将每个神经元的输入连接权重乘以 0.5。如果我们不这样做,每个神经元将获得大约两倍于网络训练的总输入信号,并且它不太可能表现良好。更一般地说,我们需要将每个输入连接权重乘以训练后的保持概率(1-p)。或者,我们可以在训练期间通过保持概率来划分每个神经元的输出(这些替代方案并不完全等效,但它们同样有效)
