机器学习 (ML) 大量使用线性和逻辑回归技术。它还依赖于特征工程技术(feature transform
、kernel
等)。
为什么在 ML 中没有提到variable transformation
(例如)?power transformation
(例如,我从未听说过对特征进行 root 或登录,他们通常只使用多项式或 RBF。)同样,为什么 ML 专家不关心因变量的特征转换?(例如,我从未听说过对 y 进行对数变换;他们只是不变换 y。)
编辑:也许问题不是肯定的,我真正的问题是“对变量的功率转换在 ML 中不重要吗?”