我最近开始涉足神经网络,遇到了一个很奇怪的情况(至少在我有限的知识范围内)。
我使用 NN 的问题是一个回归问题,它试图预测 FMCG 中特定类型促销的产品销量。
尽管数据不是严格的时间序列,但它仍然具有一些与时间相关的属性,例如预测可能依赖于去年的类似促销(我使用特征工程对其进行了建模)。
现在我遇到的问题:
我获取了 2015-2017 年的数据,通过添加少量噪声来增强它,对其进行洗牌,然后通过神经网络运行它(我认为架构并不重要,但如果是,请告诉我,我会尝试发表它)。
- 优化器:衰减的亚当
- 损失函数:体积加权映射
- 验证集:随机选择 20% 的数据
网络训练良好,错误率低至 8%。训练集和验证集的错误一起减少,并不表示过度拟合。
但更重要的是,当我将算法应用于新的未见数据(2018 年上半年)时,错误率上升到 55%。.
我尝试在谷歌上研究这个问题,但没有发现任何有用的东西。这里发生了什么?难道我做错了什么?