我使用 CUSUM 算法来检测数据中的步骤。基本上数据看起来是这样的,数据有一个恒定的幅度,然后有一个快速的变化或阶跃。例如,信号值为 1000 并迅速下降到 950 或 900。使用 CUSUM 算法,我可以轻松检测到这些变化以及它们发生的时间。但现在我还想自动化这些步骤的幅度估计。最终,我需要实时实现这一点(幅度估计可以容忍小的延迟)
我想尝试的一种解决方案是:
- 在步骤之前取 N 个样本,在步骤之后取 N 个样本并减去各自的平均值。
有更好的解决方案吗?
编辑: - 例如,从 1000 到 900 的转换可能总共需要 10 个样本。