这会起作用吗?
想法是开始训练具有一定数量节点的神经网络。然后,添加一些新节点和更多层,并开始仅训练新节点(或仅稍微修改旧节点)。理想情况下,我们会将所有旧节点连接到添加的新层,因为我们可能在隐藏层中学到了许多有用的东西。然后重复多次。
直觉是,如果旧节点提供错误信息,则新层节点会将旧节点的激活权重接近零,并在新节点中学习新/更好的概念。好处是我们将永远保留旧知识。
需要注意的是,如果新层对旧信息的权重接近于零,网络仍然可以暂时“忘记”概念,但它也有可能再次记住它。
如果这完全失败,我很好奇是否有一些已知的方法可以防止神经网络忘记它学到的概念。