给出一个词使用 n-gram 的马尔可夫链等统计模型预测后续单词. 预测绝不是随机的。
这如何转化为神经模型?我已经尝试对我的句子进行标记和排序,下面是它们准备传递给模型的方式:
train_x = np.zeros([len(sequences), max_seq_len], dtype=np.int32)
for i, sequence in enumerate(sequences[:-1]): #using all words except last
for t, word in enumerate(sequence.split()):
train_x[i, t] = word2idx(word) #storing in word vectors
序列如下所示:
Given sentence "Hello my name is":
Hello
Hello my
Hello my name
Hello my name is
将这些序列作为输入传递给具有 LSTM 层的 RNN,我得到的下一个单词(给定一个单词)的预测是随机的。