GSP 作为 DSP 的扩展

信息处理 离散信号 信号分析 傅里叶变换
2022-02-22 18:15:49

我是博士。在纯数学中。

  1. 您能否说明以下陈述:图拉普拉斯算子的特征向量的行为类似于傅立叶基,推动了基于图的傅立叶分析理论的发展。
  2. 我正在阅读有趣的 论文,但无法了解傅里叶变换如何扩展到图傅里叶变换,如第 23 页所示。确实,为什么矩阵 V 应被视为(离散)傅里叶变换的扩展?
1个回答

在 GSP 的背景下,这是一个有效的问题,但听起来可能不像是一个数字信号处理问题。

要理解这一点,您需要了解特征值/特征向量告诉我们的内容(关于矩阵),然后是拉普拉斯算子是如何构造的(以及它的含义),然后将其与 DSP 相关联。

矩阵的特征分解是将矩阵表示为特征值和特征向量的乘积的一种方式。为了理解它们的几何解释,假设矩阵的每一行描述了某个 n 维空间中的一个向量。一个向量有一个起点和一个终点,它指向一个方向。矩阵的特征分解将这些向量指向的“最常见”方向分解为一些基本向量(特征向量)乘以其强度(特征值)的总和。

如果您要使用指向同一方向的向量填充矩阵并要求其特征分解,您将获得最大强度的 1 个特征向量。该特征向量指向矩阵中所有向量指向的方向。在这里试试

如果你用两个向量子集填充一个矩阵,其中一个子集指向某个方向,另一个指向另一个方向,你将得到不同的混合。在这里试试您可以尝试不同的值并探索这个概念,我在这里仅提供一些简单的说明性示例。有关如何更广泛地将其应用于图像/信号处理的更多信息,您可能希望在此处查看

继续讨论拉普拉斯算子:图论中的拉普拉斯算子是一个非常重要的矩阵,因为它是通向谱图论的桥梁。Laplacian 的定义当然是一个,但根据您处理的图形类型,有不同的快捷方式。例如,对于简单的无向图,您实际上不必评估 Degree 和 Adjacency 矩阵之间的差异,因为这将导致两个节点相邻时为 -1,如果它们不相邻则为 0,并且主对角线填充每个节点的度数。

这就是建筑。关键是拉普拉斯算子可以用来广泛地刻画图。当您处理难以处理的(对于人脑而言)大的图形时,它变得非常有用。但是,非正式地,拉普拉斯算子为我们提供了一种“正确”的方式(从函数数学的角度来看)来编码图的连通性并以代数方式使用它。

如果将其与特征分解结合起来,您可以看到节点连接模式(节点如何相互连接)如何通过我们之前描述的特征分解分解为子结构。

这是在傅立叶变换(用于将波形分解为正弦分量之和)和图形的谱分解(用于将连接模式分解为子模式之和)之间建立联系的地方。(所有这一切,当然是在特定的约束下,让这些东西不坏)。

现在剩下的最后一件事是将所有这些与数字信号处理联系起来。DSP 源于时间序列分析。图是捕捉关系的数学对象,这两者是如何结合起来的?

对此的答案是您可以将信号映射到图形上,或者在知道信号源自图形已知的过程的情况下,对信号进行一些推断。后一种情况在生物医学信号处理,特别是大脑连接中非常热门,您可以推断大脑的哪些区域交换信息以完成特定的认知任务。(那些彩色矩阵基本上是图形的权重矩阵,但是您可以通过各种波形之间的一系列相关性来推断它们)。

在您引用的演示文稿(论文(?))中,幻灯片 6 到 8 对此进行了概述,其中给出了一些基本示例,尝试在网络上映射某些过程,然后处理网络并得出关于信号本身的一些结论。然后幻灯片 52 以后提供了一些更具体的实际示例。

希望这可以帮助