有哪些可解释的人工智能技术?

人工智能 参考请求 伦理 可解释的ai
2021-11-15 20:44:20

可解释的人工智能 (XAI)关注的是可以增强人工智能的可解释性、问责制和透明度的技术的开发,特别是机器学习算法和模型,尤其是黑盒算法和模型,例如人工神经网络,因此这些也可以在需要可解释性和理解结果(例如分类)的领域中采用,例如医疗保健。

有哪些 XAI 技术?

如果有很多,为避免使这个问题过于宽泛,您可以只提供一些示例(最著名或最有效的示例),并且对于对更多技术和细节感兴趣的人,您还可以提供一个或多个参考/调查/ 详细介绍 XAI 的书籍。这个问题的想法是人们可以很容易地找到一种他们可以研究的技术,以了解 XAI 的真正含义或如何处理它。

4个回答

可解释的AI模型可解释性是当前研究的超活跃和超热门领域(想想圣杯之类的),最近提出这些领域的原因尤其是由于深度学习模型在各种任务中的(通常是巨大的)成功,加上算法公平和问责制的必要性。

以下是一些最先进的算法和方法,以及实现和框架。


与模型无关的方法

SHAP似乎在从业者中享有很高的知名度;该方法在合作博弈论(Shapley 值)上有坚实的理论基础,并且在一个共同的框架下很大程度上整合了 LIME 方法。尽管与模型无关,但可用于神经网络 ( DeepExplainer ) 和树集成 ( TreeExplainer , paper ) 的特定且高效的实现。


神经网络方法(主要但不限于计算机视觉模型)


库和框架

随着可解释性走向主流,已经有框架和工具箱包含了不止一种上面提到和链接的算法和技术;这是部分列表:


评论和一般论文


电子书(可在线获取)


在线课程和教程


其他资源

有一些XAI 技术(部分)与要解释的模型无关

还有一些 ML 模型不被视为黑盒,因此比黑盒更易于解释,例如

  • 线性模型(例如线性回归)
  • 决策树
  • 朴素贝叶斯(以及通常的贝叶斯网络)

有关此类技术和模型的更完整列表,请查看 Christoph Molnar 的在线书籍Interpretable Machine Learning: A Guide for Making Black Box Models Explainable ,该书试图对主要的 XAI 技术进行分类和介绍。

雅克·皮特拉 (Jacques Pitrat) 的上一本书《 人工存在者意识机器的良心》 (Artificial Beings The Conscience of a Conscious Machine ) 有一些有趣的章节(§2、§3、§5、§6、§7)与 AI 系统中的解释和元解释问题相关。

它描述了一种自反的“专家系统”,例如基于元知识的可解释人工智能方法

您还可以在线阅读他的论文 Implementation of a Reflective System (1996) 和A Step to an Artificial AI Scientist(其中可能有错别字:“pile”是法语中的堆栈,包括调用堆栈)。

您还可以查看 J.Pitrat 的博客和正在进行的RefPerSys项目(时间为 2020 年 11 月)。

PS。J.Pitrat(生于 1934 年)于 2019 年 10 月去世。法国读者可以看到这一点他的博客可能会在几个月后消失。

集成梯度用于衡量预测的特征重要性。您可以通过阅读这篇关于在 Transformer 模型上使用该方法的文章来深入了解