在许多应用和领域,计算机视觉、自然语言处理、图像分割和许多其他任务中,神经网络(具有一定的架构)被认为是迄今为止最强大的机器学习模型。
然而,基于不同方法的算法,例如随机森林和梯度提升等集成模型,并没有被完全抛弃,而是被一些人积极开发和维护。
我是否正确理解神经网络尽管是非常灵活和通用的逼近器,但对于某种任务,无论架构的选择如何,都不是最佳模型?
对于计算机视觉中的任务,使 CNN 更胜一筹的核心特征是平移不变性和捕获图像或某些序列数据的邻近属性的编码能力。并且更新的变压器模型能够选择哪个相邻数据属性对其输出更重要。
但是假设我有一个数据集,没有特定的结构和模式,一些数字列,很多分类列,并且在特征空间(用于分类任务)中,类被一些非线性超曲面分隔,集成模型是性能和计算时间方面的最佳选择吗?
在这种情况下,我看不到利用 CNN 或基于注意力的神经网络的方法。在这种情况下,我唯一想到的是普通的 MLP。一方面,训练权重的时间似乎比训练集合中的树要多得多。另一方面,这两种模型都可以在没有将先验知识应用于数据和对其结构进行假设的情况下工作。因此,如果有足够的时间,它应该提供可比的质量。
或者是否有某种理由认为神经网络有时必然会提供相当差的质量?