我最近为二分类建立了逻辑回归
虽然我知道逻辑回归本质上是可解释的,但我正在尝试使用可解释的 AI 解决方案来理解预测。为此,我正在尝试列出所有 XAI 解决方案并将结果相互比较。
截至目前,这些是我已经确定的以下内容
XAI 解决方案
a) 形状
b) 石灰
c) PFI
d) 依赖图
Python 包实现
a) 解释器仪表板
b) ExplainX.ai
c) 沙巴什
有什么可以添加到列表中的吗?
对于像我这样的初学者真的很有用
我最近为二分类建立了逻辑回归
虽然我知道逻辑回归本质上是可解释的,但我正在尝试使用可解释的 AI 解决方案来理解预测。为此,我正在尝试列出所有 XAI 解决方案并将结果相互比较。
截至目前,这些是我已经确定的以下内容
XAI 解决方案
a) 形状
b) 石灰
c) PFI
d) 依赖图
Python 包实现
a) 解释器仪表板
b) ExplainX.ai
c) 沙巴什
有什么可以添加到列表中的吗?
对于像我这样的初学者真的很有用
在不完全了解您要解决的问题的情况下,请参阅下面的一些可解释性包和/或方法,我在过去发现它们非常有用,尤其是对于 DL 和 NLP 任务。
套餐:
论文和论文:
具体到表格数据,
我发现使用 TabNet 模型中每一步生成的掩码非常有见地。Tabnet 还可以在与 Shap 相同的上下文中产生聚合重要性。掩码可以告知这些重要特征如何组合以提高模型性能。
您可以使用纯 pytorch 或 fast.ai 中的 dreamquark-ai 实现轻松地对此进行试验。
希望这可以帮助。
编辑:标签网