我已阅读http://papers.nips.cc/paper/7062-a-unified-approach-to-interpreting-model-predictions.pdf和https://medium.com/@gabrieltseng/interpreting-complex-models -with-shap-values-1c187db6ec83这就像第一个链接的摘要。
总的来说,我对 SHAP 值如何帮助以及它如何帮助我们确定第一篇论文中特征的重要性一无所知。在第二篇文章中,他有一个非常简单的决策树,并计算了特定训练示例的特征的形状值。它并没有说最后哪个值决定了它的重要性(即每个训练示例的特征的平均值。我不知道)。或者为什么这有效。
并且他们之间存在混淆。首先,第一篇文章使用 SHAP 值,该值定义为“原始模型的条件期望函数的 Shapley 值”,第二篇文章仅使用了 shapley 值。
我阅读了几篇学术论文和网站文章,但无法回答我的问题。无论如何,大多数网站都处理其框架应用程序。如果您能解释或提供有用的资源,我将不胜感激。