线性回归和非线性回归有什么区别?

人工智能 机器学习 比较 线性回归 非线性回归
2021-10-27 07:25:45

在机器学习中,我知道线性回归假设方程中的参数或权重应该是线性的。例如:

y=w1x1+w2x2

是一个线性方程,其中x1x2是特征变量和w1w2是参数。

y=w1(x1)2+w2(x2)2

作为参数也是线性的w1w2是线性的y.

现在,我读了一些文章,指出在等式中

y=log(w1)x1+log(w2)x2

也可以通过考虑其他变量来线性化v1v2作为:

v1=log(w1)v2=log(w2)

因此,

y=v1x1+v2x2

那么,从这个意义上说,任何非线性方程都可以变成线性的,那么这里的非线性回归是什么?我想我在这里遗漏了一些重要的东西。我是机器学习领域的初学者。有人可以帮助我吗?

1个回答

区别只是非线性回归学习以某种方式控制非线性的参数 - 例如,在非线性函数之前应用的任何权重或偏差。

例如:

y=(w1x1+w2x2)2+w3

有了这样一个函数来学习,你不能分离出转换后的值w1w2并把它变成一个线性函数x1x2.

相反,您在示例中描述为非线性的内容全部由机器学习工程师应用来创建线性回归的新候选特征。这通常不被描述为非线性回归,而是特征转换或特征工程。

还有一种中间地带,其中通过自动生成和过滤变换特征,对原始特征的许多变体训练中心线性算法,例如线性回归。这种方法最通用的变体并不是非常流行,因为它们与非线性模型一样存在过度拟合的风险,同时在提高性能方面没有提供太多帮助。但是,如果您根据您期望目标函数如何表现的一些知识来缩小特征和变换组合的类型,则会导致许多有用的线性回归变体——例如傅立叶变换回归、径向基函数等。