我正在生成一个需要过滤的时间流数据集。数据集非常大(即太大而无法一次性过滤)。我正在尝试将过滤操作分成块,但显然在每个块开始时都会出现峰值。是否有正确的方法将大型数据集拆分为较小的数据集并获得连续的结果 - 即(伪代码)。
timestream # variable with say 1e9 data points
b,a = sig.butter(1, 0.16, 'lowpass')
将时间流分成 1000 个“块”
f_t = []
for c in chunks:
t_data = sig.lfilter(b,a,c)
f_t.append(t_data)