几个月前,我通过 Coursera 参加了 Andrew Ng 的“机器学习”课程,没有关注大多数数学/推导,而是专注于实施和实用性。从那以后,我开始回去研究一些基础理论,并重温了吴教授的一些讲座。我正在阅读他关于“正则化线性回归”的讲座,看到他给出了以下成本函数:
然后,他给出了这个成本函数的以下梯度:
我对他如何从一个到另一个感到有点困惑。当我尝试进行自己的推导时,我得到了以下结果:
不同之处在于原始成本函数和 Ng 教授公式中的正则化参数之间的“加号”符号在他的梯度函数中变为“减号”符号,而我的结果中没有发生这种情况。
直觉上我理解为什么它是负数:我们通过梯度图减少 theta 参数,并且我们希望正则化参数减少我们改变参数的量以避免过度拟合。我只是有点卡在支持这种直觉的微积分上。
仅供参考,您可以在此处找到幻灯片 15 和 16。