假设我有一个神经网络在做分类,我正在做随机梯度下降来训练它。如果我知道我当前的近似值是一个不错的近似值,我是否可以得出结论,我的梯度是真实分类器梯度的一个不错的近似值?
具体来说,假设我有一个真正的损失函数,,以及它的估计,. 是否存在一个(依赖于) 这样对于所有人和如果然后? 这不适用于一般功能,但可能适用于神经网络。如果这个确切的陈述是不正确的,那么是否有沿着这些思路的东西呢?如果我们对NN设置一些限制怎么办?
我想到的目标是,我试图弄清楚如何计算我可以使用特定样本来估计梯度而不会导致错误变得太糟糕的时间。如果我处于重新采样成本高昂的环境中,那么只要我没有让我的错误太大,那么多次重复使用同一个样本可能是值得的。如果我使用相同的样本,我的长期目标是确定我有多少错误次,据我所知,这似乎不是文献中的内容。