R中发生的内部相关性(突发性?)

机器算法验证 r 时间序列
2022-04-07 11:59:46

我想测量事件发生的内部相关性,即我想区分两者(绘制)并说“在第二个示例中,与第一个相比,事件发生得更多”:

在此处输入图像描述

这与突发性(即更容易计算,因为它不涉及流量值)不同吗?

我已经在样本下方的图像中绘制了预期结果(对于 S2)的可能表示(就像我现在在想的那样),但请毫不犹豫地提出不同的建议。

我查看并尝试了不同的内置函数,并在 CrossValidated 中搜索了 R 和突发性或“内部相关性”,但我没有取得进展。也许我正在寻找错误的搜索词。如果我想真正衡量突发性,在我看来(通过阅读有关突发性的论文)不会有常见的已知衡量标准(但有许多不同的衡量标准)。我我们会选择一个它会很酷证明为什么选择这个特定的一个。

这是时间序列在 R 中的表示方式,目前:(由文件中的 dput 编写)

c(3.256861, 3.377142, 3.941173, 4.304236, 4.485358, 4.606512, 
4.707296, 5.473004, 5.714746, 5.815394, 5.835405, 5.936067, 5.957008, 
6.964611, 7.045158, 7.065171, 7.165824, 7.669618, 8.17324, 8.273692,
9.503988, 9.604991, 9.624853, 9.725522, 10.237766, 10.954529, 
11.378399, 12.687714, 13.291919, 13.41258, 13.67527, 14.380529, 
14.743638, 15.247138, 15.851832, 15.952875, 15.972497, 16.456259, 
16.476052, 17.201506, 17.463708, 18.068535, 18.309645, 18.390292, 
18.410299, 18.430323, 18.531736, 18.652921, 18.793662, 19.297076, 
19.639692, 19.760698, 20.768096, 20.868441, 20.990499, 21.494412, 
21.856368, 22.199341, 22.219143, 22.440472, 22.481118, 23.327013, 
23.447678, 23.811188, 23.843, 24.113302)
1个回答

这是神经科学中广泛研究的问题,您需要确定神经元动作电位的“突发性”。然而,这些方法显然可以应用于任何一系列事件。

它们中的大多数依赖于对以下两个事件之间的间隔的分析:在动作电位的情况下,这些通常称为脉冲间间隔 (ISI),但我们可以将它们称为事件间间隔 (IEI) 来概括。

我们可以将它们定义为

IEI=tntn1n=2,3,4,...,N

在哪里tn是事件的时间nN是事件的总数。

我将列出一些已经使用的方法。但是请注意,这份清单远非详尽无遗。


最简单的可视化方法是开始绘制 IEI 的直方图,或者更好的是,绘制 IEI 的直方图log10(IEI). 在高“突发”的情况下,直方图将具有清晰的双峰分布,事件之间有很多短间隔和一些较长的间隔(突发之间的停顿)

如果您有相当数量的一系列事件,您还可以使用聚类算法将它们分组(常规、慢速爆发、快速爆发等)。例如,Nowak 等人在本文中采用了这种方法。其中分布的几个参数(均值、中值、偏度、峰度、IQI 等)被用作层次聚类的分类器。

定量分析揭示的体内猫初级视觉皮层神经元的电生理分类(免费文章)


另一种经典方法被称为“泊松惊奇法”,由 Charles Legéndy 和 Michael Salcman 于 1985 年在他们的论文中描述

自发活跃的纹状皮层神经元的尖峰序列中的爆发和复发。(不是免费的)

该方法的思想是:

这里使用的度量是对突发是偶然发生的可能性的评估,并且对于在时间间隔 T 中包含 n 个尖峰的任何给定突发进行计算,如

s=logP

其中 P 是在具有与所研究的脉冲序列相同的平均脉冲率 Y 的随机(泊松)脉冲序列中,长度为 T 的给定时间间隔包含 y2 或更多脉冲的概率。

如果需要,我可以为此提供 R 代码


2007 年 Boris Gourévitch 和 Jos Eggermont 在他们的论文中描述的排序惊喜方法是 Poisson-surprise 方法的“更新”版本,它是为解决该方法的某些问题而开发的

一种用于检测尖峰序列中的突发的非参数方法(不是免费的)

它使用非参数方法来定义突发。

我们建议使用以下称为 ESM(详尽意外最大化)的算法对意外统计的最大值进行更详尽的搜索:在算法的初步阶段,我们确定了突发(限制)中可接受的最大 ISI 值和级别 -log (α) 对意外统计的最小显着性。然后,我们确定其值低于限制的 ISI 的第一序列。从这个序列中,我们对 ISI 的所有可能的连续子序列执行最高惊喜统计量的详尽搜索。如果最终的惊喜统计量高于 -log(α),则相关的子序列被标记为突发。然后在剩余的连续 ISI 子序列中搜索另一个突发,遵循相同的标准。重复该过程,直到一个剩余的连续 ISI 子序列能够提供显着的 RS 统计量。

作者提供了算法的伪代码和 Matlab 代码


其他方法依赖于分布的可变性。

特别是,可以使用变异系数CV, 经典定义为

CV=σIEIIEI

越高CV突发事件的分布


CV然而,这是一个相当粗略的索引,因此提出了一个更精细的版本,称为CV2, Gary Holt 及其同事在他们的论文中

猫视觉皮层神经元(非游离)体外和体内放电变异性的比较

CV2=2|IEIn+1IEIn|IEIn+1+IEIn


最后,Shigeru Shinomoto 及其同事在 2003 年提出的另一种方法是局部变异系数Lv定义为

Lv=1n1i=1n13(TiTi+1)2(Ti+Ti+1)2

在他们的论文中

皮质神经元中尖峰模式的差异


另外,两本经典必读:

神经元脉冲序列和随机点过程。一、单钉列车

神经元脉冲序列和随机点过程。二、同时尖峰列车(都是免费的,第二个可能对你来说不太有趣,但它仍然是一本好书)