我试图形象化,当我们有多个特征和一个标签要预测时,线性回归模型如何绘制一条直线。就像我们有 1 个特征和 1 个标签一样,我们可以轻松地将它们绘制在二维图上并画一条直线。即使我们有两个特征和一个标签,我们仍然可以将它们绘制在 3-D 图上,但我无法想象当我们有 20 个特征时会发生什么。算法会使用 20-D 图还是我遗漏了什么。
我是机器学习的新手。所以这个问题可能很幼稚。
我试图形象化,当我们有多个特征和一个标签要预测时,线性回归模型如何绘制一条直线。就像我们有 1 个特征和 1 个标签一样,我们可以轻松地将它们绘制在二维图上并画一条直线。即使我们有两个特征和一个标签,我们仍然可以将它们绘制在 3-D 图上,但我无法想象当我们有 20 个特征时会发生什么。算法会使用 20-D 图还是我遗漏了什么。
我是机器学习的新手。所以这个问题可能很幼稚。
如果有 20 个自变量和 1 个因变量,则线性回归模型可以看作是 21 维空间中的 20 维超平面。超平面对于任何自变量都不是“垂直的”。因此,如果您为 20 个自变量中的每一个选择一个值并在由这些值组成的点处绘制一条垂直线,那么当您插入自变量的值时,它将在模型输出的高度处穿过超平面一次。
在这里添加其他答案,我首先要注意的是,拟合回归与绘制回归结果不同。拟合只需要最小化残差平方和即可确定最佳系数(或权重)。
单个系数为您提供相应变量/特征的“边际效应”。
显然,如果我们有超过三个维度(y 和两个 x),则不可能绘制所有结果。
但是,您可以绘制单个效果。您可以仅绘制边际效应,也可以将所有剩余的变量/特征设置为特定值,例如它们的平均值。这使您有机会展示单个变量/特征的影响(给定所有剩余特征的一些有意义的值)。