可解释的异常检测

数据挖掘 异常检测 离群值 可解释的ai
2022-02-20 08:20:39

有很多工作可以解释监督学习中的预测(例如 SHAP 值、LIME)。

无监督学习中的异常检测呢?是否有任何模型的库可以为您提供理由,例如“行 x 是异常,因为特征 1 高于 5.3 而特征 5 等于‘否’”?

3个回答

LIME 框架也可以用来做这件事。

异常值检测为异常值(例如 1)设置一个特定标签,为异常值设置另一个标签(例如 0)。从那时起,您可以训练可解释模型(例如决策树)来预测您的无监督模型设置的标签。

我对 SHAP 值知之甚少,但我想,通过这种方法,您也可以这样做。

您可以将 SHAP Kernal Explainer 用于无监督模型,但您应该将 sth 作为输出。您可能需要创建一个管道,以便您只需将管道变量传递给 shap kernal。

有一个名为outliertree的库正是这样做的。它使用决策树为异常值/异常提供人类可读的解释。

另请参阅相关论文可解释的异常值检测通过决策树条件