在 SVM 中,我们有将输入原始数据空间映射到更高维特征空间的核函数
在 CNN 中,我们还有一个“内核”掩码,它通过输入原始数据空间(图像作为矩阵)并将其映射到另一个空间。
鉴于这两种方法都称为“内核”,我想知道从数学角度来看它们之间的联系是什么。
我的猜测是它可能与功能分析有关。
在 SVM 中,我们有将输入原始数据空间映射到更高维特征空间的核函数
在 CNN 中,我们还有一个“内核”掩码,它通过输入原始数据空间(图像作为矩阵)并将其映射到另一个空间。
鉴于这两种方法都称为“内核”,我想知道从数学角度来看它们之间的联系是什么。
我的猜测是它可能与功能分析有关。
这两个概念之间没有直接关系。但是我们可以找到一些间接的。
根据韦氏词典,
内核意味着中心或重要部分
这暗示了为什么它们被称为“内核”。具体来说,决定“如何测量点-点相似度(又名核函数)”是核方法的核心部分,而决定“哪些数组、矩阵或张量(又名核矩阵)与数据点进行卷积”是卷积神经网络的核心部分。
核函数接收两个数据点,将它们隐式映射到更高的(可能是无限的)维度,然后计算它们的内积。
核矩阵(或数组,或张量)与一个数据点卷积,以将数据点显式映射到通常较低的维度。在这里,我们忽略了过滤器和内核之间的细微差别(过滤器由每个通道一个内核组成)。
因此,这两个概念基于映射到新的表示而间接相关。然而,