想象一下,你向神经网络展示一张狮子的图片 100 次,并将其标记为“危险”,因此它知道狮子是危险的。
现在想象一下,之前你已经向它展示了数百万张狮子的图像,并交替地将其标记为“危险”和“不危险”,这样狮子危险的概率是 50%。
但是最后 100 次已经推动神经网络非常积极地认为狮子是“危险的”,从而忽略了最后一百万个教训。
因此,神经网络似乎存在缺陷,因为它们可以根据最近的证据过快地改变主意。特别是如果之前的证据在中间。
是否有一个神经网络模型可以跟踪它所看到的证据数量?(或者这是否相当于让学习率降低在哪里是试验次数?)