降维回归(DRR) 或监督降维(SDR) 技术相对于传统回归技术(没有任何降维)有哪些应用或优势?这类技术为回归问题找到了特征集的低维表示。此类技术的示例包括切片逆回归、主要 Hessian 方向、切片平均方差估计、内核切片逆回归、主成分回归等。
在交叉验证的 RMSE 方面,如果一个算法在没有任何降维的情况下在回归任务上表现更好,那么降维在回归中的真正用途是什么?我不明白这些技术的意义。
这些技术是否有机会用于降低回归的空间和时间复杂度?如果这是主要优势,那么在使用这种技术时,一些有关降低高维数据集复杂性的资源将很有帮助。我对此进行了辩论,因为运行 DRR 或 SDR 技术本身需要一些时间和空间。这个 SDR/DRR + Regression 在低维度数据集上是否比仅在高维度数据集上回归更快?
是否只是出于抽象兴趣而研究此设置,并且没有很好的实际应用?
作为一个侧面的想法:有时假设特征的联合分布和回应位于歧管上。在这种情况下,从观察到的样本中学习流形来解决回归问题是有意义的。