偏差也是神经网络中的“权重”吗?
人工智能
神经网络
深度学习
术语
反向传播
权重
2021-10-18 16:29:25
1个回答
是的,通过添加一个始终输出常数 1 的神经元来忽略偏差并不罕见,然后将其乘以适当的权重以给出与使用显式偏差相同的公式。
使用此约定的一个值得注意的文本是Shai Shalev-Shwartz 和 Shai Ben-David的《理解机器学习:从理论到算法》 。在第 20.1 节中,有一个神经网络图,其中一个输出恒定值的神经元被添加到每一层,您可能会觉得这很有帮助。
为了理解为什么会这样,假设前一层的输出是, 在哪里总是. 然后下一层的神经元(没有偏差)计算
在哪里是激活函数。所以,重量只是作为偏差,因为它乘以.
其它你可能感兴趣的问题
