记忆机制(读取和写入)在神经图灵机中是如何工作的?

人工智能 神经网络 深度学习 数学 记忆 神经图灵机
2021-11-14 00:55:24

在神经图灵机 (NTM) 中,阅读记忆表示为

(2)rtiRwt(i)Mt(i)

写入内存表示为

第一步:擦除

(3)Mterased(i)Mt1(i)[1wt(i)et]

第二步:添加

(4)Mt(i)Mterased(i)+wt(i)at

在读取机制中,如果我们将这个示例值应用于上述公式,而不是向量,我们会得到一个值为 2 的标量。

M_t =[[1,0,1,0],
      [0,1,0,0],
      [1,1,1,0]]

w_t = [1,1,1]

同样的事情也发生在写作中。这里我们取两个向量的点积, wt(i)et,以标量值作为输出。根据论文,除非wt或者et为零,它将擦除内存矩阵中的所有值

我自己对 NTM 内存的想法是,它使用权重来查找内存矩阵中与某个任务相对应的索引或行。

NTM 中的内存是如何工作的?

特定任务的内存是如何存储的,也就是说,它是按行存储还是存储在整个矩阵中?

0个回答
没有发现任何回复~