SHAP (Shapley Additive Explanation) 和 LIME (Local Interpretable Model-Agnostic Explanations) 之间的比较

机器算法验证 解释 沙普利值 酸橙
2022-02-11 01:08:54

我正在阅读两种流行的事后模型可解释性技术:LIMESHAP

我无法理解这两种技术的主要区别。

引用SHAP背后的大脑Scott Lundberg的话:

SHAP 值具有 LIME 的黑盒局部估计优势,但也具有博弈论关于一致性和局部准确性的理论保证(来自我们统一的其他方法的属性)

我很难理解这种“博弈论中关于一致性和局部准确性的理论保证”是什么。由于 SHAP 是在 LIME 之后开发的,我认为它填补了一些 LIME 未能解决的空白。那些是什么?

Christoph Molnar在 Shapley Estimation 的一章中写道

预测和平均预测之间的差异在实例的特征值之间公平分布 - 沙普利效率属性。此属性将 Shapley 值与 LIME 等其他方法区分开来。LIME 不保证完美地分布效果。它可能使 Shapley 值成为提供完整解释的唯一方法

读到这里,我感觉到 SHAP 不是本地的,而是数据点的全局解释。我在这里可能是错的,需要对上述引用的含义有所了解。总结一下我的问题:LIME 产生本地解释。SHAP 的解释与 LIME 的解释有何不同?

1个回答
  • LIME在您希望了解其预测的单元周围本地创建一个代理模型。因此,它本质上是本地的。

  • Shapley 值将最终预测“分解”为每个属性的贡献——这就是“一致”的含义(这些值加起来是真实模型的实际预测,这不是 LIME 得到的)。

但要真正获得 shapley 值,必须做出一些决定,即如何处理/如何处理“遗漏”属性的值,这就是这些值是如何得出的。在这个决定中,有一些选择可以改变解释。如果我“遗漏”一个属性,我会平均所有可能性吗?选择一些“基线”吗?

简而言之:

Shapley 值实际上以一种附加的方式告诉你你是如何得到你的分数的,但是对于“起点”有一些选择(即关于省略属性的决定)。

LIME只是简单地告诉您,在本地意义上,感兴趣的数据点周围最重要的属性是什么。