这个词在人工智能中已经相当古老了。图灵在他 1950 年的《计算机与智能》论文中花了很长的篇幅讨论“学习机器” ,并定性地勾勒出监督学习。Rosenblatt 的原始论文:The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain论文 1958 年广泛讨论了“学习的数学模型”。在这里,感知器是一个“学习模型”;模型没有“学习”。
Pitts 和 McCullough 1943 年的论文——最初的“神经网络”论文——并不真正关心学习,更多的是如何构建逻辑演算(如希尔伯特或根岑系统,但我认为他们指的是 Russell/Whitehead)可以进行推理。我认为是“感知器”论文引入了数字,而不是在这一传统中学习的象征性概念。
机器是否有可能仅从示例中学习如何下棋?是的。它有下棋的模型吗?是的。它是最佳模型(假设有一个)吗?几乎可以肯定不是。用简单的英语来说,如果我能下国际象棋,我就“学过国际象棋”——或者说得很好。这并不意味着我是最佳棋手。这就是图灵在论文中讨论学习国际象棋时所描述的“学习”的含义。
我与我使用的术语非常不一致。因此(例如)对于极限学习我会说“识别”,对于 SVM 学习我会说“训练”,但对于 MCMC-“学习”我会说“优化”。例如,我只是将回归称为“回归”。