维基百科说:
极限学习机是用于分类、回归、聚类、稀疏近似、压缩和特征学习的前馈神经网络,具有单层或多层隐藏节点,其中隐藏节点的参数(不仅仅是将输入连接到隐藏节点的权重)需要不调。
如何在没有实际看到训练集的情况下为链接分配值?
到目前为止,从我的研究中了解这一点,我已经取得了领先,但并不令人满意,因为我无法从下面的段落中得到任何东西。
对于任何用作激活函数的非常量分段连续函数,如果调整隐藏神经元的参数,则该函数可以使 SLFN 逼近任意目标连续函数 f(x)。然后,根据任意连续分布概率,可以随机生成 i 从 1 到 L 的函数序列 {h 下标 i (x)},它具有普遍逼近能力,即
具有适当输出权重的概率为 1.
来源:A Parallel Multiclassification Algorithm for Big Data Using an Extreme Learning Machine,IEEE 神经网络交易 2017
任何人都可以用一个例子来证明/解释这一点吗?
也非常欢迎任何关于极限学习机的额外知识。