机器学习/统计中使用的每个正定核的点积的等效表示,即
我的问题是给了一个核表达式,是不是总能找到对应的特征图?例如,我们知道高斯核对应的特征图是一个无限维向量。(高斯核的特征图)
欢迎任何指针(包括研究论文)。
机器学习/统计中使用的每个正定核的点积的等效表示,即
我的问题是给了一个核表达式,是不是总能找到对应的特征图?例如,我们知道高斯核对应的特征图是一个无限维向量。(高斯核的特征图)
欢迎任何指针(包括研究论文)。
简短的回答:这取决于您所指的 find 以及您正在查看的内核的确切类型。在许多情况下,您可以证明这样一个特征图的抽象存在,但在实践中,“写下来”总是很困难,而且通常是不可能的。此外,这些结构在数学上是微妙的。您需要小心技术假设。
让您的内核定义为(域很重要!)。从某种意义上说,有很多特征图,特征图是将嵌入到合适的希尔伯特空间中。当然,总会有规范的特征图:从等式的右侧判断,您正在寻找一个不同的特征图,它映射到“向量”,即的平方可和序列的希尔伯特空间又名“
获得这种特征图的关键事实是 Mercer 定理(参见 [1] 中的定理 4.49)。如果你的内核是连续的并且它的定义域紧凑,那么在平方可积函数
是所谓的希尔伯特-施密特算子。这些算子的理论告诉我们,存在一个可数的函数族,它跨越,因此可以将核写为
当然,这正是您正在寻找的特征图。
[1]:英戈·斯坦沃特;Andreas Christmann “支持向量机”