“解释权”如何合理?

人工智能 哲学 伦理 可解释的ai 合法的
2021-10-25 23:28:45

最近,人们对 e X可理解人工智能(XAI)的兴趣有所增加。这是 XAI 在其DARPA 页面上所述的使命:

可解释人工智能 (XAI) 计划旨在创建一套机器学习技术:

  • 生成更可解释的模型,同时保持高水平的学习性能(预测准确性);
  • 使人类用户能够理解、适当信任和有效管理新一代人工智能合作伙伴。

纽约时报的文章可以教人工智能解释自己吗?很好地从人类利益的角度解释了对 XAI 的需求,并提供了对为此开发的技术的概览。XAI 运动背后的力量似乎围绕着(即将到来的?)解释权概念即通过决策显着影响人类生活的 AI 应用程序能够向利益相关者解释导致的因素/原因对上述决定。

鉴于我们相互问责的现行标准,解释权如何合理?

2个回答

鉴于我们相互问责的现行标准,解释权如何合理?

简而言之,这是相当合理的。

更具体地说,让人工智能负责解释决策似乎是合理的,因为

  • 人类(在本例中为 DARPA)选择用纳税人的钱来创造、培养和发展人工智能。同样在我们的社会中,每当人类为了某种目的(某种正式安排,如政府或其他)而聚集在一起时,就会承担和分配责任和义务。因此,期望人工智能(将代表我们做出决定)解释他们的决定似乎只是人类当前运作方式的自然延伸

  • 人类(通常至少)没有超能力或资源来控制和操纵其他人口。但是当他们这样做时(比如我们的政治领导人),我们希望他们承担责任。

  • 在极少数情况下,强大的人类会因为每个人都可以接触到的东西而变得强大,而人工智能的超能力则不会。因此,如果人工智能在被问到问题时不会当面关门,我们的文明会感到更安全,从而减少不安全感。

人工智能的其他好处,可以解释如何做出决定

  • 在早期阶段更容易调试和改进。

  • 可以进一步定制(并在此过程中)以放大某些方面,如社会福利而非盈利能力等。

在论文从属算法?为什么“解释权”可能不是您正在寻找的补救措施,作者声称“解释权”不太可能为算法危害提供完整的补救措施,至少有两个原因

  1. 目前尚不清楚何时可以触发任何与解释相关的权利

  2. 当前的(可解释的)人工智能方法可能无法提供法律要求的解释,“关于处理逻辑的有意义的信息”

然后作者得出结论,“解释权”令人分心,但欧盟通用数据保护条例的其他法律,例如

  1. 被遗忘的权利
  2. 数据可移植性的权利
  3. 设计隐私

可以弥补“解释权”的缺陷。

总而言之,“解释权”是一种保护公民免受使用人工智能方法可能产生的不良后果的尝试。然而,它并非完美无缺,可能需要颁布更明确的权利。