在哪些情况下,非线性学习方法比逻辑回归更适合分类问题?

数据挖掘 机器学习 回归
2022-02-13 19:39:26

我们知道,在一些非线性分类问题中,神经网络和其他学习方法相对于逻辑回归可以有更好的表现。但是,众所周知,只要我们添加更多预测变量,即给定预测变量的正方形、立方体等(仍然被认为是线性决策边界),逻辑回归就可以用一条可以弯曲的线来分隔类别。

所以我的问题是,我们是否可以通过逻辑回归从理论上解决任何分类问题,或者是否存在我没​​有意识到的限制,使得其他非线性学习方法对某些分类问题是强制性的?

1个回答

为了使逻辑回归起作用,需要满足几个假设。根据个人经验,两个最重要的假设:

  1. 特征不需要(或很少)彼此相关,因为如果它们相关,那么当您尝试解决优化问题时,一个特征的变化也表明另一个特征的变化是一个问题
  2. 可能某些特征不是有序的

您也可以在此处查看更多信息。

其他学习方法(例如 RandomForest)不需要此类假设,并且可能对某些数据集更有效。但请记住没有免费的午餐定理,大多数情况下,您需要亲自动手并测试几种学习模型,然后再决定哪种模型最适合您的数据。