一个概念类如果存在至少可以输出概率假设的算法,那么是 PAC 可学习的(“可能”部分),以及小于(“大约”部分),在时间上是多项式的,,和.
Tom Mitchell定义了样本复杂度的上限,对于有限假设。基于这个界限,他对目标概念是否是 PAC 可学习的进行分类。例如,连词布尔字面量概念类。
在我看来,PAC-learnability 似乎更像是某些概念类的分类。
了解概念类是否可通过 PAC 学习是否有任何实际目的?
一个概念类如果存在至少可以输出概率假设的算法,那么是 PAC 可学习的(“可能”部分),以及小于(“大约”部分),在时间上是多项式的,,和.
Tom Mitchell定义了样本复杂度的上限,对于有限假设。基于这个界限,他对目标概念是否是 PAC 可学习的进行分类。例如,连词布尔字面量概念类。
在我看来,PAC-learnability 似乎更像是某些概念类的分类。
了解概念类是否可通过 PAC 学习是否有任何实际目的?
知道概念类是否是 PAC 可学习的有任何实际应用吗?
如果您知道一个概念类是 PAC 可学习的(即它的 VC 维度是有限的),那么您有可能设计一种算法来找到任意接近您的目标(或期望)的函数(或概念)功能。
这不是真正的应用程序,而是一个结果,可以导致应用程序。
但是,请注意,询问 PAC 学习在实践中是否有用就像询问狭义相对论在实践中是否有用。是的,它们很有用,但从某种意义上说,它们可用于预测实验的结果或解释特定上下文中的规则。在机器学习的情况下,PAC 学习可用于解释例如近似学习概念(目标函数)所需的可能需要的数据点数量。
另请参阅PAC 学习和 VC 维度是否与实践中的机器学习相关?对于 PAC 学习和 VC 维度的更具体的“应用”。