标准神经网络算法(如反向传播)的一个限制是您必须对您想要多少隐藏层和每层神经元做出设计决定。通常,学习率和泛化对这些选择非常敏感。这就是为什么像级联相关这样的神经网络算法一直引起人们的兴趣的原因。它从最小拓扑(只是输入和输出单元)开始,并随着学习的进展招募新的隐藏单元。
CC-NN 算法由 Fahlman 于 1990 年引入,循环版本于 1991 年引入。最近(1992 年后)有哪些以最小拓扑开始的神经网络算法?
相关问题
CogSci.SE:具有生物学上似是而非的神经发生解释的神经网络