您的解释是完全正确的,但我将分两部分回答,以避免与激活函数相关的混淆。
第 1 部分。(TLDR:神经元权重是将输入空间分成两部分的超平面的法线向量。神经元的预激活与输入点到平面的距离成正比。)每个人工神经元学习其之间的线性关系输入。最容易回忆的直线方程是y=m⋅x+b,但这实际上是一种非常特殊的形式,它允许我们遍历该行的 X 值并查看它对应的 Y 值。最一般的形式是0=n⋅y+m⋅x+b. 这告诉我们这条线是由点 (X,Y) 形成的,这些点的值使该系列的计算为零。我们可以探索 (X,Y) 的不同值,并看到它们中的大多数给出非零值,并且它们在线的一侧给出正值,在另一侧给出负值。只有当你降落在线上时,它才会给你一个零。这是一个非常重要的解释,因为它允许神经元找到输入空间的划分(分为正面和负面)。当然它可能不会是二维空间,所以它会是超平面而不是直线,但我希望你明白这一点。
第 2 部分。但是,如果我们只使用线性变换,我们将无法学习非线性函数。在这里,激活函数发挥了非常重要的作用:它以非线性方式(使其成为非线性函数)扭曲了神经元的预激活值(线性)。激活函数有很多花里胡哨的东西,在这里写得太多了,但是您可以开始将它们视为应用于输入点到神经元超平面的距离的扭曲。你看到的那个叫做 ReLU,它基本上会截断负值,因此只关注超平面的正面(它可以解释为测量点穿过边界的距离)。