深度学习是线性回归的重复应用吗?
深度学习是线性回归的重复应用吗?
只有当我们使用线性激活函数(即),并且只有在我们不使用任何神经网络特定技术如卷积、残差等的情况下,如下图所示:
在哪里是一个权重矩阵并且是一些向量常数。
这遵循线性回归模型形式, 在哪里是权重矩阵和是向量常数。因此,您可以分析求解和使用线性回归技术,不再需要梯度下降。
请注意,要使其作为线性回归正常工作,您需要检查 OLS 数据假设,例如确保回归量没有共线性,残差没有异方差,没有自回归,并且误差大致为正态分布(更多信息)。具有非线性激活函数的深度神经网络不需要这些假设,因为它们是通用逼近器,尽管检查某些条件可能有助于使任务更容易预测(更多信息*)。
*注意 - 此链接专门讨论了具有神经网络的时间序列数据,但同样的概念通常适用于任何任务。
神经网络特定的技术,如 ReLu、卷积、残差等,使网络能够学习非线性关系,因此使神经网络不仅仅是线性回归的重复应用。
用神经网络拟合线性回归模型(例如 OLS)是没有意义的,因为它实际上是为非线性模型设计的。但如果你想这样做,你只需要设置线性激活单位。
一般来说,你可以这样说:
神经网络学习(我在这里假设一个“香草”ANN,没有 CNN 或 RNN 或任何东西)和线性/逻辑回归之间存在关系。
但它们不是一回事。只是相关。您也许可以将他们视为“表亲”,以使用现实生活中的类比。
最大的明显区别是:标准线性回归是线性的,也就是说,它基于一条直线。所以它只能分离平面上的点,这些点可以通过在该平面上绘制的直线分开。然而,人工神经网络是非线性的,可以适应各种疯狂的曲线。这是真的原因与所使用的“激活”功能的组合以及隐藏层的分层效果有关。
公平地说,如果将线性回归扩展为多项式回归,则可以拟合更复杂的曲线,但这也有其缺点。虽然它们也是相关的,但线性回归和多项式回归并不是 - 严格来说 - 相同的东西(尽管它们可能都是相同通用技术的特殊情况)。
所有这些可能都过于简单化了。如果您真的想很好地解释线性/逻辑回归和 ANN 以及它们之间的关联和不同之处,我推荐 Andrew Ng 在 Coursera 上的 ML 课程。原始版本和新的 DeepLearning.ai 版本。