假设我有一个逻辑回归分类器。在正常的批量学习中,我会有一个正则化项来防止过度拟合并保持我的权重很小。我还将规范化和扩展我的功能。
在在线学习环境中,我获得了连续的数据流。我对每个示例进行梯度下降更新,然后将其丢弃。我应该在在线学习中使用特征缩放和正则化术语吗?如果是,我该怎么做?例如,我没有一组可扩展的训练数据。我也没有验证集来调整我的正则化参数。如果没有,为什么不呢?
在我的在线学习中,我不断得到一连串的例子。对于每个新示例,我都会进行预测。然后在下一个时间步,我得到实际目标并进行梯度下降更新。