免责声明:我不是计算机科学专业的学生,我对 ML/NN 的大部分知识都来自 YouTube,所以请多多包涵!
假设我们有一个分类神经网络,它需要一些输入数据,并且有一定数量的输出神经元。我喜欢考虑一个分类器来决定房子的价格,所以它的输出神经元是房子的大致价格。
确定房价是人类已经做了一段时间的事情,所以假设我们先验地知道数据对房子的价格很重要(例如,平方英尺、卧室数量、浴室数量)和基准对房子的价格没有很大的影响(例如前门的颜色)。作为一名实验者,我可能会通过寻找具有相同特征的房屋组来确定这一点和变化,并表明房价没有显着差异。
现在,假设我们的神经网络已经在一些随机房屋上训练了一段时间。稍后在数据集中。它会遇到一组房子和价格都一样,但谁的是不同的。我天真地期望在训练课程结束时,到第一层神经元将归零,有效地解耦输入数据从输出神经元。我有两个问题:
- 是否确定,甚至可能,会与输出神经元层解耦吗?
- 从数学上讲,这会发生在哪里?在反向传播步骤中,什么会控制这种效应的发生,它会以多快的速度发生?
对于经典神经网络,网络没有“记忆”,因此网络可能很难意识到是一个毫无价值的输入参数。
非常感谢任何信息,如果有任何论文可以让我深入了解这个主题,我很乐意阅读它们。