我环顾四周,找不到好的答案,我只想知道为什么它可以被视为学习,而不仅仅是“校准”或“参数化”。
我觉得“学习”这个词对于模型所做的事情来说太过分了。
提前致谢。
我环顾四周,找不到好的答案,我只想知道为什么它可以被视为学习,而不仅仅是“校准”或“参数化”。
我觉得“学习”这个词对于模型所做的事情来说太过分了。
提前致谢。
当一个婴儿调整他大脑中神经元之间的连接,直到他能够认出一只狗并说“这是一只狗!” 我们说他学会了。
为什么我们不对碰巧在计算机内部而不是在人脑中的神经网络(或其他模型)说同样的话?
首先,这是一个可以引发社区讨论的问题 :)
对我来说,将模型训练过程称为“参数化”在某种程度上是正确的,因为本质上我们所做的是使模型更加优化以解决问题陈述,就像谷歌的 Duplex能够通过特定领域的图灵测试一样只要。
但随之而来的是强化学习的概念,其中代理致力于最大化奖励并采取从未想过的行动。以AlphaGo为例,AI 试图理解游戏并从错误中学习。
当我们拟合一个模型时,考虑到一些参数,它被称为拟合。然而,当我们使用像梯度下降这样的优化方法时,参数会在每次迭代中更新,从而导致参数的修改,就像人类一样。
因此,它被称为学习。