我想知道如何在 EEG 上下文中解释循环架构。具体来说,我认为这是一个循环 CNN(与 LSTM 等架构相反),但也许它也适用于其他类型的循环网络
当我阅读 R-CNN 时,通常会在图像分类上下文中对其进行解释。它们通常被描述为“随着时间的推移学习”或“包括时间 1 对当前输入的影响”
在使用 EEG 数据时,这种解释/解释会变得非常混乱。可以在此处找到用于 EEG 数据的 R-CNN 示例
想象一下,我有训练示例,每个示例都包含一个 1x512 数组。该阵列在 512 个连续时间点捕获 1 个电极的电压读数。如果我将其用作循环 CNN 的输入(使用 1D 卷积),模型的循环部分实际上并没有捕获“时间”,对吧?(正如前面讨论的描述/解释所暗示的那样)因为在这种情况下,时间已经被数组的第二维捕获
那么通过这样的设置,网络的循环部分实际上允许我们对常规 CNN 无法(如果不是时间)进行建模吗?
在我看来,循环只是意味着进行卷积,将结果添加到原始输入中,然后再次进行卷积。这会重复 x 个重复步骤。这个过程实际上有什么好处?