在 coursera 上,Andrew Ng 在视频 Lectures 60 & 61 of machine learning 中到底说了什么?

数据挖掘 机器学习 交叉验证 模型选择
2021-09-23 02:01:37

模型选择和训练/验证/测试集 - 斯坦福大学 | 课程:

10 : 59 ~ 11 :10

最后一点:我应该说,在今天的机器学习实践中,没有多少人会做我所说的早期事情,并且说,你知道......

我的理解正确吗?因为 coursera 上的英文字幕有时是不正确的。据我所知,这里中文字幕的含义与英文字幕的含义相反。所以我不确定吴恩达是说“没有”还是“

感谢您的阅读。


我想问另一个

诊断偏差与方差 - 斯坦福大学 | 课程:

02:34 ~ 02:36 Andrew Ng 说的和英文字幕不太清楚。

我的理解如下

如果 d 等于 1,.... 是高训练错误。

它不是那么完整。

有人愿意识别吗?

谢谢...

1个回答

,他实际上说的是相反的:

最后一点:我应该说,在今天的这种实践中,在机器学习中,有很多人会做我所说的早期事情,并说,你知道......

然后他说(他谈到的“早期事情”):

选择您的模型作为测试集,然后使用相同的测试集报告错误......不幸的是,很多人都这样做


在本课中,他解释了如何分离数据集:

  1. 训练集来训练模型;
  2. 交叉验证集以找到正确的参数;
  3. 测试集以找到最终的泛化错误(在使用交叉验证集期间找到的具有最佳参数值的函数)。

所以 Andrew Ng 抱怨很多人使用相同的数据集来找到正确的参数,然后将该数据集的错误报告为最终泛化错误