我一直在阅读 Shalev-Shwartz 和 Ben-David 的书《理解机器学习》,它在第一部分中介绍了 PAC 理论。虽然 PAC 可学习性理论对我来说确实非常优雅和非凡,但我并不是这样确定它对实际机器学习问题的影响。PAC 可学习性和 VC 维度的主要效用(或效用)是什么?
PAC 可学习性理论是否告诉我们假设类在可以以高概率使测试误差变小的意义上,是经过精心选择的吗?换句话说,如果PAC 是可学习的,那么我们就可以保证不会发生过拟合?那么,PAC 理论的主要价值是为选择假设类和训练集大小提供指导吗?此外,PAC 理论之所以引人注目,是因为上述断言在不知道学习任务的输入和输出字母表上的分布的情况下成立?
我是机器学习的新手。我很感激任何可以帮助我了解 PAC 理论如何帮助解决实际机器学习问题的更正/评论/答案。