我正在阅读Wavenet 论文,上面写着:
堆叠的空洞卷积使网络具有非常大的感受野,只有几层,同时保持整个网络的输入分辨率以及计算效率。在本文中,每一层的膨胀都加倍,直到一个极限,然后重复:例如,
1, 2, 4, ..., 512, 1, 2, 4, ..., 512, 1,2,4, ..., 512。
...每个 1、2、4、...、512 块的感受野大小为 1024...堆叠这些块进一步增加了模型容量和感受野大小。
我试图了解在 1、2、4、...、512 的第 N 个块之后的感受野是什么。在第二个块之后,是 1024*1024,在第三个块之后是 1024^3 吗?还是我误解了感受野大小是如何扩大的?