我对数据科学比较陌生,最近开始了一个项目。长话短说,我训练了一个 CNN 模型来区分男性和女性。但是,我希望调整我的模型。我保存了现有模型的权重和偏差。
我可以使用带有权重和偏差的当前模型来重新训练增强数据(来自相同的初始数据集)吗?我猜有两种可能的结果,它调整模型或“重置”权重和偏差。
我可以在现有模型上使用 RandomSearchCV 或 GridSearchCV 执行超参数调整吗?我相信这会调整模型。
我的目标是减少过度拟合。
我对数据科学比较陌生,最近开始了一个项目。长话短说,我训练了一个 CNN 模型来区分男性和女性。但是,我希望调整我的模型。我保存了现有模型的权重和偏差。
我可以使用带有权重和偏差的当前模型来重新训练增强数据(来自相同的初始数据集)吗?我猜有两种可能的结果,它调整模型或“重置”权重和偏差。
我可以在现有模型上使用 RandomSearchCV 或 GridSearchCV 执行超参数调整吗?我相信这会调整模型。
我的目标是减少过度拟合。
在回答您的问题之前,让我们了解几点 -
1. 模型训练只不过是使用 y_true 和 y_pred 根据损失函数 o/p 找到通过引导路径的正确权重。
训练从权重的随机初始化开始(绝对遵循一些规则)
2. 神经网络训练是一种增量训练方法,即它不会像决策树那样一次性看到所有数据
我可以使用带有权重和偏差的当前模型来重新训练增强数据(来自相同的初始数据集)吗?我猜有两种可能的结果,它调整模型或“重置”权重和偏差
是的,学习将继续,不会有任何大的中断,因为增强图像会产生与真实图像相似的梯度。
它不会重置,正如我所说的,培训是一个渐进的过程。
任何具有完全不同特征的新图像肯定会导致大梯度流动并可能破坏权重,但是对于增强图像,我认为不会发生任何这样的事情。
我可以在现有模型上使用 RandomSearchCV 或 GridSearchCV 执行超参数调整吗?我相信这会调整模型。
您可以这样做,但由于模型是固定的,因此您没有太多的超参数。您可以调整学习率。