最近,人们对 e X可理解的人工智能(XAI)的兴趣有所增加。这是 XAI 在其DARPA 页面上所述的使命:
可解释人工智能 (XAI) 计划旨在创建一套机器学习技术:
- 生成更可解释的模型,同时保持高水平的学习性能(预测准确性);和
- 使人类用户能够理解、适当信任和有效管理新一代人工智能合作伙伴。
纽约时报的文章可以教人工智能解释自己吗?很好地从人类利益的角度解释了对 XAI 的需求,并提供了对为此开发的技术的概览。XAI 运动背后的力量似乎围绕着(即将到来的?)解释权概念,即通过决策显着影响人类生活的 AI 应用程序能够向利益相关者解释导致的因素/原因对上述决定。
鉴于我们相互问责的现行标准,解释权如何合理?