在优化过程中,新特征的加入能提高模型的性能多少?
假设我总共有 10 个功能。假设我只使用 3 个特性开始优化过程。
添加剩下的 7 个可以提高模型的性能(您可以假设,这可能已经相当高了)?
在优化过程中,新特征的加入能提高模型的性能多少?
假设我总共有 10 个功能。假设我只使用 3 个特性开始优化过程。
添加剩下的 7 个可以提高模型的性能(您可以假设,这可能已经相当高了)?
这取决于使用的网络以及馈送机制,但让我们举个例子;
使用 LSTM 时,除了时间序列数据(来自特征)之外,还提供时间数据(作为整数序列)可以显着提高网络的性能。
[,, ...][[,],,],……]
如果你去寻找kaggle比赛获胜者的笔记本,他们也会根据特色数据创建额外的功能。
让我们假设这三个特征的性能已经相当高,以便您可以高可靠性地预测这三个特征。如果您想预测额外的特征,增加特征的数量才有意义!
与 3 个特征的优化相比,10 个特征的优化会收敛得更慢。
假设我总共有 10 个功能。假设我只使用 3 个特性开始优化过程。添加剩下的 7 个可以提高模型的性能(您可以假设,这可能已经相当高了)。
答案可能是否定的。
那么为什么可能方法对结果的维度进行分组并收敛于轴组,然后是另一个,然后是另一个,然后又回到第一个,迭代直到达到收敛目标?这种方法用于减少用于达到最优的时间和计算资源。随着问题复杂性的增加,以这种方式使用分组更为普遍。