神经网络,优化数学直觉

数据挖掘 神经网络 优化 数学
2022-03-01 11:13:48

当我研究以下偏导数时,我认为它是任何优化算法的关键元素。如果我错了,请纠正我,但这会得到损失函数的斜率,因此我们可以与该斜率相反,从而最大限度地减少损失。

θL

其中:是权重,是损失;θL


那有意义吗?除了这个导数之外,还有任何其他计算步骤可以说对神经网络的优化更重要吗?

这个话题现在对我来说特别重要,因为我想把这个衍生品纹身,作为一个很酷的人工智能纹身,我希望它是基本的和简单的。

2个回答

请注意,不同。你试图描述的似乎是其中是一个变量。如果是高维的,有时我们只使用符号。LθθLLθθθ

梯度下降是

θn+1=θnγL(θn)

  • 并非一切都是可微的,并且对于某些优化问题,梯度可能没有很好地定义。

  • 在存在约束的情况下,可能需要扮演 Langragian 的角色而不是目标函数。L

  • 梯度下降只是找到模型参数的一种方法。基于梯度的方法目前似乎是常态,但情况可能会发生变化。

你建议纹身的只是“渐变”或“坡度”。不是反对,只是想让你知道你在做什么。

除了你的纹身,在梯度下降中,需要最小化损失函数,这是我们在这种情况下的目标函数。

梯度下降更新规则指出,

θij=θijLθij

在哪里θ是需要优化的参数。这是梯度下降的基本方程,几乎在所有 AI/ML 任务中都用作优化算法。