我已经完成了一个简单的多对一 LSTM 模型,如下所示。
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense
from tensorflow.keras.layers import LSTM
from tensorflow.keras.layers import Dropout
model=Sequential()
model.add(LSTM(2**LSTM_units,input_length=data.shape[1],input_dim=data.shape[2],return_sequences=True))
model.add(Dropout(dropout))
model.add(Dense(1))
model.fit(data,res)
prediction=model.predict(test)
哪里data.shape
是(日期,时间间隔,因素)和res.shape
是(日期,1)。
我想用注意力替换 LSTM。如何使用 tf.keras.layers.Attention 获得类似的结果?