O'Rourke说可解释机器学习使用黑盒模型并在之后对其进行解释,而可解释机器学习使用非黑盒模型。
Christoph Molnar说,可解释的 ML 是指人类能够理解(模型)决策原因的程度。然后,他交替使用可解释的 ML 和可解释的 ML。
维基百科在“可解释的人工智能”这一主题上说,它指的是人工智能方法和技术,以便人类专家可以理解解决方案的结果。它与机器学习中的黑匣子概念形成鲜明对比,即使他们的设计者也无法解释为什么人工智能会做出特定的决定。解释 AI 决策的技术挑战有时被称为可解释性问题。
Doshi-Velez 和 Kim说,可解释的机器学习系统为他们的输出提供了解释。
显然,有很多定义,但它们并不完全一致。最终,应该解释什么:模型的结果,模型本身或模型如何做出决策?解释和解释有什么区别?