我正在阅读两种流行的事后模型可解释性技术:LIME和SHAP
我无法理解这两种技术的主要区别。
引用SHAP背后的大脑Scott Lundberg的话:
SHAP 值具有 LIME 的黑盒局部估计优势,但也具有博弈论关于一致性和局部准确性的理论保证(来自我们统一的其他方法的属性)
我很难理解这种“博弈论中关于一致性和局部准确性的理论保证”是什么。由于 SHAP 是在 LIME 之后开发的,我认为它填补了一些 LIME 未能解决的空白。那些是什么?
Christoph Molnar在 Shapley Estimation 的一章中写道:
预测和平均预测之间的差异在实例的特征值之间公平分布 - 沙普利效率属性。此属性将 Shapley 值与 LIME 等其他方法区分开来。LIME 不保证完美地分布效果。它可能使 Shapley 值成为提供完整解释的唯一方法
读到这里,我感觉到 SHAP 不是本地的,而是数据点的全局解释。我在这里可能是错的,需要对上述引用的含义有所了解。总结一下我的问题:LIME 产生本地解释。SHAP 的解释与 LIME 的解释有何不同?