反转 ML 算法的输入和输出以进行优化

数据挖掘 机器学习 优化
2022-03-08 16:45:38

我的数据集由多个输入变量 (X) 和多个输出变量 (Y) 组成。

例如:

| X1| X2 | X3 |    | Y1| Y2 | Y3 |
----------------------------------
| 1 |  1 |  0 |    | 2 |  2 |  0 |
| 2 |  2 |  1 |    | 3 |  3 |  1 |
| 3 |  3 |  3 |    | 4 |  5 |  6 |

但是,我实际上并不想预测输出变量 Y。我想实际预测给定 Y 的输入变量 X。我知道切换变量 X 和 Y 可能不是“最佳的”,因为可能有多个输入值产生相同的输出值,但我不知道如何解决此类问题。我计划使用随机森林或简单的神经网络。

从我一直试图获得的帮助来看,我似乎应该保持输入和输出变量不变,而是使用优化技术来找到给定输出的最佳输入(我想要预测的变量)。我不确定我最初对反转输入和输出的直觉是否会“完成工作”。

有关我要解决的实际问题的更详细细分,请参阅此链接

1个回答

问题有点模糊,但这里有几个想法:

  • 只需使用 Y 变量作为特征并预测 X 变量。最基本的选择是将每个 Xi 都视为独立于其他 Xi,并为每个 Xi 训练一个独立的模型。一种更高级的方法是训练一个联合模型,将所有 Xi 一起预测(例如,类将是“1,1,0”),但这可能需要更多数据。
  • 在优化技术的思想中,可能有一些方法可以使用遗传学习来获得给定 Y 值的最优 X 值。但是我不知道如何设计具有许多不同 Y 组合的人口,但也许这是可能的。