元学习和迁移学习有什么区别?
我已经阅读了 2 篇关于Quora和TowardDataScience的文章。
元学习是机器学习理论的一部分,其中一些算法应用于有关案例的元数据以改进机器学习过程。元数据包括所用算法的属性、学习任务本身等。使用元数据,可以更好地决定选择的学习算法,从而更有效地解决问题。
和
迁移学习旨在利用通过解决前人问题获得的经验来改进学习新任务的过程,这些问题有些相似。在实践中,大多数时候,机器学习模型旨在完成一项任务。然而,作为人类,我们利用过去的经验不仅在未来重复相同的任务,而且还学习全新的任务。也就是说,如果我们试图解决的新问题与我们过去的一些经验相似,那么对我们来说就变得更容易了。因此,为了在机器学习中使用相同的学习方法,迁移学习包括迁移一个或多个源任务的过去经验并利用它来促进相关目标任务中的学习的方法。
这些比较仍然让我感到困惑,因为两者在可重用性方面似乎有很多相似之处。元学习被称为“模型不可知论”,但它使用来自先前学习任务的元数据(超参数或权重)。迁移学习也是如此,因为它可以部分重用经过训练的网络来解决相关任务。我知道还有很多要讨论的内容,但是从广义上讲,我认为两者之间没有太大区别。
人们还使用诸如“元迁移学习”之类的术语,这让我认为这两种类型的学习彼此之间有很强的联系。
我也发现了一个类似的问题,但答案似乎彼此不一致。例如,有人可能会说多任务学习是迁移学习的一个子类别,而其他人可能不这么认为。