看待它的一个好方法是从数学上理解神经网络,即纯粹基于你只是试图拟合一个函数并解决一个优化问题的事实(除了将其视为逻辑回归的多个单元) .
假设我们要逼近一个函数是的=Fw( × )和x ∈ D, 在哪里D是我们的领域空间。我们希望这个函数映射到C,我们的共同域,函数最终采用的所有值都是集合是的∈ R,我们的范围。本质上我们框架F( × )作为一系列操作(什么操作应该在哪里进行,主要是从经验中获得的常见实践、直觉和洞察力)假设当这些操作使用正确的参数时,我们将得出一个非常合理的函数近似值.
我们用我们最初想要的任何值(通常是随机的)初始化参数,调用这个参数空间W. 基本思想是构建另一个功能大号(Fw( x ) ,是的^)称为我们想要最小化的损失函数。这可以测试我们的函数有多好 - 由于我们的函数参数最初是随机的,因此估计了函数近似值与已知点(训练集)的实际范围值之间的误差。然后通过反向传播使用这些估计的误差值及其梯度,其中w我_ _ _∈ W更新为另一个w1∈ W, 在哪里w1通过继续计算大号在梯度减小的方向上,希望达到损失函数的最小值。
简化,基本上你想要做的就是找到一个是的=Fw( × )其中参数w将被选择为大号(Fw( x ) ,是的^)为训练集最小化。
尽管这是神经网络的一个非常粗略的概念,但在研究生成网络和其他问题时,在解决问题之前必须先用数学公式表示,这样的思维方向可能特别有用。