有哪些不同类型的神经网络用于?

人工智能 神经网络 机器学习 深度学习 应用
2021-11-02 21:36:01

我找到了以下神经网络备忘单(人工智能备忘单、神经网络、机器学习、深度学习和大数据)。

在此处输入图像描述

所有这些不同类型的神经网络用于什么?例如,哪些神经网络可以用于回归或分类,哪些可以用于序列生成等?我只需要他们的应用程序的简要概述(1-2 行)。

1个回答

我同意这太宽泛了,但是对于大多数人来说,这里有 1 句话的答案。我遗漏的那些(从图表底部)非常现代,非常专业。我对他们了解不多,所以也许有人可以改进这个答案。

  • 感知器:线性或类逻辑回归(以及分类)。
  • 前馈:通常是非线性回归或具有 S 型激活的分类。本质上是一个多层感知器。
  • 径向基网络:具有径向基激活函数的前馈网络。用于分类和某些类型的视频/音频过滤
  • 深度前馈:具有超过 1 个隐藏层的前馈。用于在分类或回归中学习更复杂的模式,也许是强化学习。

  • 循环神经网络:一个深度前馈网络,其中一些节点连接到过去的层。用于强化学习,以及学习文本或音频等顺序数据中的模式。
  • LSTM:具有专门控制神经元(有时称为门)的循环神经网络,可以让信号被记住更长的时间,或者选择性地遗忘。用于任何 RNN 应用程序,并且通常能够学习具有很长重复时间的序列。
  • GRU:很像 LSTM,另一种具有专门控制神经元的门控 RNN。

  • 自动编码器:学习压缩数据然后解压缩。在学习了这个模型之后,它可以分成两个有用的子部分:从输入空间到低维特征空间的映射,这可能更容易解释或理解;以及从简单数字的小维子空间到复杂模式的映射,可用于生成这些复杂模式。许多现代视觉、语言和音频处理工作的基础。
  • VAE、DAE、SAE:自动编码器的专业化。

  • 马尔可夫链:马尔可夫链的神经网络表示:状态被编码在一组活跃的神经元中,因此转移概率由权重定义。用于学习转移概率和其他应用程序的无监督特征学习。
  • HN、BM、RBM、DBM:基于马尔可夫链思想的专业架构,用于自动学习其他应用程序的有用特征。

  • 深度卷积网络:类似于前馈网络,但每个节点实际上是一组节点,从它之前的层学习卷积。这本质上允许它学习过滤器、边缘检测器和其他在视频和音频处理中感兴趣的模式。

  • 深度反卷积网络:在某种意义上与卷积网络相反。从表示某些看不见的图像的边缘或其他高级属性的特征中学习映射回像素空间。从摘要生成图像。

  • DCIGN:本质上是一个由 DCN 和 DN 组合而成的自动编码器。用于学习复杂图像(如人脸)的生成模型。

  • 生成对抗网络:当没有足够的训练数据可用于 DCIGN 时,用于学习复杂图像(或其他数据类型)的生成模型。一个模型学习从随机噪声中生成数据,另一个模型学习将第一个网络的输出与任何可用的训练数据进行分类。