我们知道,在一些非线性分类问题中,神经网络和其他学习方法相对于逻辑回归可以有更好的表现。但是,众所周知,只要我们添加更多预测变量,即给定预测变量的正方形、立方体等(仍然被认为是线性决策边界),逻辑回归就可以用一条可以弯曲的线来分隔类别。
所以我的问题是,我们是否可以通过逻辑回归从理论上解决任何分类问题,或者是否存在我没有意识到的限制,使得其他非线性学习方法对某些分类问题是强制性的?
我们知道,在一些非线性分类问题中,神经网络和其他学习方法相对于逻辑回归可以有更好的表现。但是,众所周知,只要我们添加更多预测变量,即给定预测变量的正方形、立方体等(仍然被认为是线性决策边界),逻辑回归就可以用一条可以弯曲的线来分隔类别。
所以我的问题是,我们是否可以通过逻辑回归从理论上解决任何分类问题,或者是否存在我没有意识到的限制,使得其他非线性学习方法对某些分类问题是强制性的?