在 Goodfellow(2016 年)关于深度学习的书中,他谈到了提前停止与 L2 正则化的等效性(https://www.deeplearningbook.org/contents/regularization.html第 247 页)。
成本函数的二次逼近是(谁)给的:
在哪里是 Hessian 矩阵(方程 7.33)。这是缺少中期吗?泰勒展开式应该是:
在 Goodfellow(2016 年)关于深度学习的书中,他谈到了提前停止与 L2 正则化的等效性(https://www.deeplearningbook.org/contents/regularization.html第 247 页)。
成本函数的二次逼近是(谁)给的:
在哪里是 Hessian 矩阵(方程 7.33)。这是缺少中期吗?泰勒展开式应该是:
他们谈论最佳重量:
我们可以对成本函数进行建模在权重的经验最优值附近具有二次近似
此时,一阶导数为零——因此省略了中间项。