说我有多类分类问题, ...,. 每个都有自己的训练数据。虽然它们都是不同的问题,但它们的数据(在我的案例中是图像)可能有相似之处,例如类的数据问题的可能在某些方面类似于类的数据问题的. 传统上,每个分类器都试图将其每个训练类与其他每个训练类分开,但不查看其他分类器及其训练类。如果我们以某种方式联合训练分类器,类之间的关系(来自不同的问题)可以更明确吗?例如,也许任何图像分类为也会被归类为反之亦然,或任何分类为 或者 将被归类为,具有一定程度的准确性?
我探索过但似乎不太合适的可能相关的事情(简化为仅指两个问题和但原则上可推广到):
- 迁移学习似乎与如何使用从求解中获得的知识有关(比如说)更好地解决(说). 优化任何分类器的准确性不是我的目标。
- 多任务学习(MTL)似乎关心如何使用从解决这两个问题中获得的知识和 一起,以提高两者的性能。同样,优化任何分类器的准确性不是我的目标。但是,MTL 的核心直觉是利用两个(或多个)任务之间的隐藏关系可能是有益的,这本质上(在我看来)与我的任务中的前提相同。
- 多标签学习似乎是我任务的简化形式,如果每个分类问题都会出现是二进制而不是多类。我发现有趣的是标签图似乎与我的任务具有相同的总体目标。
我的问题是:假设我的任务已经在大量机器学习文献中进行了描述和研究,它的名称是什么?这将帮助我找到相关的论文和潜在的软件,因此我不必重新发明轮子。最后,我是一个机器学习初学者,所以这个问题很可能从根本上被误导。如果有,请指正。