在神经图灵机 (NTM) 中,阅读记忆表示为
写入内存表示为
第一步:擦除
第二步:添加
在读取机制中,如果我们将这个示例值应用于上述公式,而不是向量,我们会得到一个值为 2 的标量。
M_t =[[1,0,1,0],
[0,1,0,0],
[1,1,1,0]]
w_t = [1,1,1]
同样的事情也发生在写作中。这里我们取两个向量的点积, ,以标量值作为输出。根据论文,除非或者为零,它将擦除内存矩阵中的所有值。
我自己对 NTM 内存的想法是,它使用权重来查找内存矩阵中与某个任务相对应的索引或行。
NTM 中的内存是如何工作的?
特定任务的内存是如何存储的,也就是说,它是按行存储还是存储在整个矩阵中?