我开发了基于在线神经网络的一类分类器,并启用了它的遗忘机制。因此,现在可以使用遗忘机制进行在线学习。但是如果数据是非平稳的如何处理。由于它是一类分类,因此假设我们有两类数据,即正常类和异常类,然后仅由正常类数据以在线方式进行训练。但是,与测试中正常和异常数据的分布相比,训练数据的分布可能不同,因为它们的分布正在变化。那么,算法将如何处理这种漂移/偏移。
关于非平稳数据处理的另一个疑问:我们是否会通过一次经过训练的标记数据,并从未标记的测试数据中收集进一步的训练标记数据?
我开发了基于在线神经网络的一类分类器,并启用了它的遗忘机制。因此,现在可以使用遗忘机制进行在线学习。但是如果数据是非平稳的如何处理。由于它是一类分类,因此假设我们有两类数据,即正常类和异常类,然后仅由正常类数据以在线方式进行训练。但是,与测试中正常和异常数据的分布相比,训练数据的分布可能不同,因为它们的分布正在变化。那么,算法将如何处理这种漂移/偏移。
关于非平稳数据处理的另一个疑问:我们是否会通过一次经过训练的标记数据,并从未标记的测试数据中收集进一步的训练标记数据?
通常,可以通过对时间序列进行一次或两次差分来处理非平稳序列。您可以向您的工具添加验证 - 检查自相关图(或偏相关图)。