Garson 提出了一种算法,后来被 Goh (1995) 修改,用于确定输入节点对网络的相对重要性。在单层隐藏单元的情况下,方程为
在哪里是之间的重量输入和第隐藏单元,和是之间的重量隐藏单元和输出。
我对神经网络完全连接并具有单个输出的情况感兴趣。在这种情况下,两者之间的唯一区别是每个输入的 s是个,所以如果我们只关心输入之间的相对重要性,我们可以定义
也就是说,唯一重要的是离开该隐藏单元的输入权重,即使这被推广到多隐藏层神经网络。
我想知道如果隐藏层被一层 LSTM 单元取代,是否也会如此?我的理由是,由于 LSTM 是完全连接的,我们仍然可以说