大多数神经网络拓扑/架构是不可识别的,这很直观。但是该领域有哪些众所周知的成果呢?是否存在允许/阻止可识别性的简单条件?例如,
- 所有具有非线性激活函数和多个隐藏层的网络都无法识别
- 所有具有两个以上隐藏单元的网络都无法识别
或诸如此类的事情。注意:我并不是说这些条件会阻止可识别性(尽管它们对我来说似乎是不错的候选者)。它们只是我所说的“简单条件”的例子。
如果有助于缩小问题范围,请随意考虑仅前馈和循环架构。如果这还不够,我会对一个涵盖 MLP、CNN 和 RNN 中至少一种架构的答案感到满意。我在网上快速浏览了一下,但看起来我能找到的唯一讨论是在 Reddit 上。来吧,伙计们,我们可以比 Reddit 做得更好 ;-)