Python 中可解释的 AI 解决方案和软件包

数据挖掘 机器学习 深度学习 神经网络 分类 数据挖掘
2022-02-20 15:18:29

我最近为二分类建立了逻辑回归

虽然我知道逻辑回归本质上是可解释的,但我正在尝试使用可解释的 AI 解决方案来理解预测。为此,我正在尝试列出所有 XAI 解决方案并将结果相互比较。

截至目前,这些是我已经确定的以下内容

XAI 解决方案

a) 形状

b) 石灰

c) PFI

d) 依赖图

Python 包实现

a) 解释器仪表板

b) ExplainX.ai

c) 沙巴什

有什么可以添加到列表中的吗?

对于像我这样的初学者真的很有用

2个回答

我知道的一些是:

排列重要性,python包就是这个ELI5

您已经涵盖了石灰、Shap、PDP 和依赖图。

要了解 AI 的可解释性,我强烈建议您阅读:

  1. https://www.bankofengland.co.uk/working-paper/2019/machine-learning-explainability-in-finance-an-application-to-default-risk-analysis

  2. 在 Kaggle 上学习这门课程:https ://www.kaggle.com/learn/machine-learning-explainability

在不完全了解您要解决的问题的情况下,请参阅下面的一些可解释性包和/或方法,我在过去发现它们非常有用,尤其是对于 DL 和 NLP 任务。

套餐:

论文和论文:

具体到表格数据,

我发现使用 TabNet 模型中每一步生成的掩码非常有见地。Tabnet 还可以在与 Shap 相同的上下文中产生聚合重要性。掩码可以告知这些重要特征如何组合以提高模型性能。

您可以使用纯 pytorch 或 fast.ai 中的 dreamquark-ai 实现轻松地对此进行试验。

希望这可以帮助。

编辑:标签网