我最近在阅读论文Aggregated Residual Transformations for Deep Neural Networks。
作者在第 (5.1) 节中提到的一件事是增加基数(或分支数量)比增加瓶颈宽度或增加深度更能减少验证错误。我理解深度部分,但我对宽度有点困惑。残差块的基数与瓶颈宽度不一样吗?如果不是,有什么区别?
谢谢!
我最近在阅读论文Aggregated Residual Transformations for Deep Neural Networks。
作者在第 (5.1) 节中提到的一件事是增加基数(或分支数量)比增加瓶颈宽度或增加深度更能减少验证错误。我理解深度部分,但我对宽度有点困惑。残差块的基数与瓶颈宽度不一样吗?如果不是,有什么区别?
谢谢!
就像在增加宽度的 InceptionNet 中一样,不同的路径是深度连接的,并且每条路径都是不同的(即不同路径的过滤器大小不同)。
而在增加基数的 ResNeXt 中,不同的路径通过将它们加在一起来合并,并且每条路径都是相似的。
阅读本文了解更多信息ResNet 及其变体概述