当我有 2-dimension 的输入特征时,将它们展平为 1-dimension 输入以便为 LSTM in制作 3- di-dimensional 输入(variable*feature)是否仍然很好?({variable*feature})(sample,timestep,feature)keras
variables特别是,如果将它们视为某些组,会不会引起问题?
假设我有 100 个城市(population, GDP, employment, living cost, ...),每个城市有 10 个特征,然后想尝试预测一个城市的人口。如果我展平输入特征,它看起来像:
Time POP1 GDP1 EMP1 LVC1 ... POP2 GDP2 EMP2 LVC2 ...
1 10000 1000 2000 1500 15000 2000 3500 2000 ...
2 12000 1200 1800 1600 16000 2100 3600 2100 ...
3 13000 1300 1900 1700 18000 2200 3700 2250 ...
...
但是,本质上,同一类别(POP1, POP2, ...)和同一城市中的特征(POP1, GDP1, EMP1, ...)将具有比彼此强的关系。鉴于此,在我看来,奉承输入特征会导致模型中忽略这种暗示。
然后,
- 在这种预测中,像一个图网络中的一个节点这样的一组特征,在这种预测中对输入特征进行扁平化是否完全可以?
- 如果没问题,为什么?
- 如果不是,有什么更好的方式来代表城市之间的这种关系?(我知道卷积 LSTM 将是一种解决方案,但它似乎主要用于更大的二维输入,例如图像。)