在Wikipedia和deeplearning4j中说,深度学习 NN (DLNN) 是具有 >1 个隐藏层的 NN。
这种神经网络对我来说在大学里是标准的,而 DLNN 现在非常流行。去过那里,做到了——有什么大不了的?
我还听说堆叠 NN 被认为是深度学习。深度学习是如何真正定义的?
我的神经网络背景主要来自大学,而不是工作:
- 研究神经网络在工业中的应用
- 大约有 5 门关于人工制品的课程。英特尔。&马赫。学习。- 虽然可能有 2 个在 NN
- 将 NN 用于图像识别的小型简单项目 - 使用 3 层前馈 NN
- 没有对他们进行真正的研究(如在博士论文中)