用于全连接 LSTM 的 Garson 算法

机器算法验证 神经网络 lstm
2022-03-31 11:42:20

Garson 提出了一种算法,后来被 Goh (1995) 修改,用于确定输入节点对网络的相对重要性。在单层隐藏单元的情况下,方程为

Qik=j=1L|wijvjk| / r=1N|wrj|i=1Nj=1L(|wijvjk| / r=1N|wrj|)

在哪里wij是之间的重量i输入和j第隐藏单元,和vjk是之间的重量j隐藏单元和k输出。

我对神经网络完全连接并具有单个输出的情况感兴趣。在这种情况下,两者之间的唯一区别是Qi每个输入的 si是个j=1L|wij|,所以如果我们只关心输入之间的相对重要性,我们可以定义

Qik=j=1L|wij|.
也就是说,唯一重要的是离开该隐藏单元的输入权重,即使这被推广到多隐藏层神经网络。

我想知道如果隐藏层被一层 LSTM 单元取代,是否也会如此?我的理由是,由于 LSTM 是完全连接的,我们仍然可以说

Qik=j=1L|wij|.

1个回答

我现在实际上正在做一些工作。从我在文献中读到的内容来看,连接权重方法实际上更好,因为它考虑了网络的大小和符号。所以也许这将是一个更好的起点。

http://www.sciencedirect.com/science/article/pii/S0304380004001565

**免责声明:我刚刚收到一篇论文,我将该方法推广到任意深度的深度网络:) 可以在链接启动时发布链接。

关于 LSTM,我会说这样做会复杂得多,但我会说任何一种方法都可以用于它。只是涉及更多的思考!希望这会有所帮助。在这个领域做事情的人并不多,比如网络摘要。