一些监督学习技术,例如 GLM(例如逻辑回归),是线性 和 参数化的。另一方面,非参数监督学习算法(例如 CART 和树集合(Bagging/Boosting))的一个声称的优势是能够捕获预测变量之间以及预测变量和预测变量之间的非线性交互。
我也知道(例如)核回归是非参数 和 非线性的。
这让我想到了我的问题:parametric总是与linear齐头并进吗?(和非线性的非参数?)
线性模型与非线性模型的局限性是什么?例如,与逻辑回归相比,使用树的共同优势是什么?内核 PCA 而不是常规 PCA?
抱歉,这似乎是很多问题,我有点困惑,但我认为一切都密切相关。