来自维基百科:
在统计建模中,回归分析是用于估计变量之间关系的统计过程。当重点是因变量与一个或多个自变量(或“预测变量”)之间的关系时,它包括许多用于建模和分析多个变量的技术。
分类不一样吗?最后,不就是机器学习的目的吗?
来自维基百科:
在统计建模中,回归分析是用于估计变量之间关系的统计过程。当重点是因变量与一个或多个自变量(或“预测变量”)之间的关系时,它包括许多用于建模和分析多个变量的技术。
分类不一样吗?最后,不就是机器学习的目的吗?
回归的目的和范围比分类或机器学习要广泛得多(但后者可能会被理解)。然而,有很多重叠之处。
通过回归分析的关系可能包括
协会
依赖
因果关系
分类提供了关于前两者的信息,但对因果关系保持沉默。回归和机器学习都被用来——有时是成功的,经常是有问题的——来得出关于因果关系的结论。
获取多变量数据的摘要。
搁置可能混淆问题的变量的影响。
有助于进行因果分析。
测量效果的大小。
尝试发现数学或经验法则。
预言。
排除:当我们想研究可能受 “不碍事” 。
(根据 Mosteller 和 Tukey,数据分析和回归,第 12B 章。)
分类几乎没有达到这些目的。 它可能以有限的方式提供某种总结(1)并帮助发现(5)。
机器学习几乎完全针对预测(6)。 大多数机器学习技术,从随机森林到神经网络再到支持向量模型,都难以理解:它们特别不旨在总结数据(1),消除混杂变量的影响(2 和 7),或帮助我们发现了可以体现在经验法则中的规律(5)。
这篇文章是我最近为一学期回归课程所做的介绍性演示的略微扩展。 那里有更多关于回归的目标和实践的材料。