较新的权重初始化技术(He、Xavier 等)如何改善神经网络中权重的零初始化或随机初始化的结果?这背后有任何数学证据吗?
较新的权重初始化技术如何优于零初始化或随机初始化?
人工智能
神经网络
深度学习
权重
权重初始化
2021-11-15 17:57:20
1个回答
有几种方法可以回答这个问题。首先,关于为什么使用某种初始化更好,有几个数学论据。例如,考虑阅读Xavier 等人的著作。. 此外,有几个数值实验表明了初始化的重要性。
神经网络中 Xavier 初始化的动机是初始化网络的权重,以便神经元激活函数不会从饱和或死区开始。换句话说,我们希望用既不“太小”也不“太大”的随机值来初始化权重。因此目的是将每个神经元的输入数据的方差固定为 1,因为这减少了卡在饱和区域的方差,因为数据通常是归一化的,这相当于将每个权重的方差固定为,其中 n 是给定神经元的输入权重的数量。
其它你可能感兴趣的问题