深度学习和极限学习机有什么关系?

机器算法验证 神经网络 深度学习
2022-03-16 06:17:23

我经常发现深度学习和极限学习机器一起讨论。

根据我对该主题的了解,我的印象是它们是具有不同目的的不同方法。

那么深度学习和极限学习机有什么关系呢?有没有我遗漏的重要论文,我应该阅读?

2个回答

不同之处在于:深度学习是原创的,而 ELM 只是 3 种老方法的花哨名称。

“极限学习机(ELM)”确实值得研究,但它们不应该被称为“ELM”。使用http://elmorigin.wix.com/originofelm上的注释 PDF 文件,您可以在 10 到 20 分钟内轻松验证以下事实:

  1. ELM 的内核(或基于约束优化)版本(ELM-Kernel,Huang 2012)与内核岭回归(回归和单输出分类,Saunders ICML 1998,以及零偏差的 LS-SVM)相同; 对于多类多输出分类,An CVPR 2007)。

  2. ELM-SLFN(ELM 的单层前馈网络版本,Huang IJCNN 2004)与随机神经网络(RNN,省略偏差,Schmidt 1992)和另一个同时进行的工作,即随机向量函数链接( RVFL,省略了直接的输入输出链接,Pao 1994)。

  3. ELM-RBF (Huang ICARCV 2004) 与随机 RBF 神经网络 (Broomhead-Lowe 1988, RBF 半径或影响因子的性能下降随机化) 相同。

  4. 在上述所有三种情况下,G.-B. 黄在排除了大量密切相关的文献后发表了他的论文。

  5. 因此,所有 3 个“ELM 变体”都绝对没有技术独创性,在研究人员中促进不道德的研究实践,并窃取原始发明者的引用。

极限学习机器和深度学习略有关联,但提倡相当对立的概念。

ELM 是具有单个隐藏层的神经网络,其中第一个权重矩阵是随机初始化的。这允许通过最小二乘估计输出矩阵,这非常快。

另一方面,深度学习是深度架构(例如深度神经网络)的学习。根据策略,所有层都被联合或贪婪地优化。

长话短说。ELM 说:“只学习最后一层”。深度学习说:“学习所有层。” DL 似乎比 ELM 更成功。