神经网络是几个线性变换依次应用于特征向量. 线性变换的组合是线性变换。所以毕竟我们得到在哪里是一个组成.
问题是:如果最终我们拥有的神经网络只是将线性变换应用于特征向量,那么神经网络和线性回归之间的本质区别是什么
神经网络是几个线性变换依次应用于特征向量. 线性变换的组合是线性变换。所以毕竟我们得到在哪里是一个组成.
问题是:如果最终我们拥有的神经网络只是将线性变换应用于特征向量,那么神经网络和线性回归之间的本质区别是什么
不,一个神经网络不是几个连续的线性变换。正如您所注意到的,这最终只会导致另一个线性变换,那么为什么要多而不是一个呢?实际上,神经网络执行多个(至少一个,但可能更多,取决于隐藏层的数量)非线性(例如 sigmoid)变换。
这也是神经网络和线性回归之间的区别,因为后者使用回归量的线性组合来近似回归和。