一般来说,深度卷积神经网络是否可以在不改变其拓扑结构的情况下进行持续学习?
就我而言,我想使用卷积神经网络作为心跳类型的分类器。ECG 信号被分割,并使用特征提取创建彩色图像。这些照片(输入)被输入深度 CNN,但必须先由某人标记。
有没有办法在用于图像识别的深度神经网络中实现持续学习?如果标签必须事先特别准备好,这样的实现是否有意义?
一般来说,深度卷积神经网络是否可以在不改变其拓扑结构的情况下进行持续学习?
就我而言,我想使用卷积神经网络作为心跳类型的分类器。ECG 信号被分割,并使用特征提取创建彩色图像。这些照片(输入)被输入深度 CNN,但必须先由某人标记。
有没有办法在用于图像识别的深度神经网络中实现持续学习?如果标签必须事先特别准备好,这样的实现是否有意义?
一般来说,深度卷积神经网络是否可以在不改变其拓扑结构的情况下进行持续学习?
您认为可以通过更改 NN 的拓扑来执行增量(又名continual、continuous或lifelong)学习的直觉是正确的。然而,动态调整 NN 的拓扑只是持续学习的一种方法(这种方法的一个具体示例是DEN)。因此,还有其他方法,例如
有关这些和其他方法的更多详细信息(以及与神经网络中的持续学习和灾难性遗忘相关的问题),请查看这篇对神经网络中的持续学习方法的非常好的评论。您还应该检查这个答案。
有没有办法在用于图像识别的深度神经网络中实现持续学习?
是的。许多方法侧重于图像识别和分类,并且通常在 MNIST 或类似数据集上进行实验(例如,参见本文)。
如果标签必须事先特别准备好,这样的实现是否有意义?
是的,你可以提前准备好你的数据集,然后再增量训练(事实上,在我在其中一些论文中看到的实验中,他们通常这样做是为了模拟持续学习的场景),但我不确定这种方法的最优性。也许通过批量学习(即在所有数据上训练的通常离线学习),您将获得更高的性能。