我完全理解 CNN 考虑了每个像素对附近像素的局部依赖性。此外,CNN 具有空间不变性,这意味着它们能够在图像的任何位置检测到相同的特征。考虑到问题的性质,这些品质在图像分类问题中很有用。
普通神经网络如何在这些属性上存在缺陷?我是否正确地声称普通神经网络必须在图像的每个部分学习给定的特征?这与 CNN 的做法不同,它只学习一次特征,然后在图像中的任何位置检测到它。
局部像素依赖性如何?为什么普通神经网络不能通过将一维输入中的一个像素与其相邻像素相关联来学习局部依赖性?
换句话说,在训练 CNN 时是否存在更多在训练普通 NN 时根本不存在的信息?还是 CNN 在图像分类问题的空间中更擅长优化?