关于神经网络和深度学习的区别,我们可以列举几项,比如更多的层、海量的数据集、强大的计算机硬件使训练复杂的模型成为可能。
除了这些,关于NN和DL之间的区别还有更详细的解释吗?
关于神经网络和深度学习的区别,我们可以列举几项,比如更多的层、海量的数据集、强大的计算机硬件使训练复杂的模型成为可能。
除了这些,关于NN和DL之间的区别还有更详细的解释吗?
深度学习 = 深度人工神经网络 +其他类型的深度模型。
深度人工神经网络 = 超过 1 层的人工神经网络。(参见深度神经网络中的最小层数)
Frank Dernoncourt 有一个更好的通用答案,但我认为值得一提的是,当人们使用广义术语“深度学习”时,他们通常暗示使用最近的技术,如卷积,你不会在旧的/传统的(全连接)神经网络。对于图像识别问题,卷积可以启用更深的神经网络,因为卷积神经元/过滤器通过共享权重在一定程度上降低了过度拟合的风险。
具有很多层的神经网络是深度架构。
然而,神经网络中使用的反向传播学习算法在网络非常深时效果不佳。深度架构中的学习架构(“深度学习”)必须解决这个问题。例如,玻尔兹曼机器使用对比学习算法。
想出一个深度架构很容易。提出一种适用于深度架构的学习算法已被证明是困难的。
深度学习需要一个具有多层的神经网络——每一层都进行数学变换并馈入下一层。最后一层的输出是网络对给定输入的决策。输入层和输出层之间的层称为隐藏层。
深度学习神经网络是分层互连的大量感知器集合。网络中每个感知器的权重和偏差会影响整个网络的输出决策的性质。在一个完美调整的神经网络中,所有感知器的所有权重和偏差值都使得输出决策对于所有可能的输入总是正确的(如预期的那样)。权重和偏差是如何配置的?这在网络训练期间反复发生——称为深度学习。(沙拉德甘地)