让人工智能做出生死攸关的医疗决定是否合乎道德?

人工智能 哲学 社会的 伦理 卫生保健
2021-11-08 02:34:41

让人工智能做出生死攸关的医疗决定是否合乎道德?

例如,在呼吸道大流行期间呼吸机数量不足的情况下,并非每个患者都能拥有一台。这似乎是一个直截了当的问题,但在你回答之前,请考虑:

  1. 人类在这方面的决策是一种算法。

(例如,确定谁接受肾移植的统计数据和规则。)

  1. 即使决策的基础是统计的,最终的决策过程也可能是启发式的,因此至少可以识别偏差。

换句话说,这个过程的目标,具体来说,是偏爱一位患者而不是另一位患者,但这样做的方式具有最大的效用。

  1. 统计偏差是机器学习的核心问题,但人类的决策也受制于这个条件。

赞成的论点之一可能是至少该算法将是公正的,这里与人类偏见有关。

最后,在稀缺的地方,功利主义变得更加必要。(电车问题的一部分是你只有两条轨道。)但电车问题也很重要,因为它可以是对责任负担的评论。

4个回答

我会将这些问题解释为关于分类的问题。这在危机情况下尤其重要,在这种情况下,必须做出许多这样的生死攸关的决定。

START 系统中有四个不同的类别:

  • 死者,无可救药
  • 可以通过立即运输得到帮助的伤者
  • 伤势较轻的伤员,其运输可能会延误
  • 那些轻伤不需要紧急护理的人。

根据分配给患者的类别,然后您决定做什么。其他系统可能更细粒度,但原理是相同的:实际上,人类决策在分类中,然后指导资源分配。在上面的列表中,第二类可能是治疗的最高优先级。但是一旦确定了类别,就确定了行动方案,尽管随后将针对每种情况考虑实际的治疗方案。

因此,伦理是对生存机会的判断:如果护士认为患者 X 离得太远而无法进行治疗,那就是这样。所以这是困难的部分,生死攸关的决定。

那么有两个方面需要考虑:

  1. 诊断的准确性
  2. 治疗有效的预测可能性

诊断应该是(我不是医生!)相当中立。当然有误诊,但不涉及价值判断。步骤 1 和步骤 2 之间可能存在一些“泄漏”,因为在决定问题所在时,人类可能会受到诊断治疗前景的影响。如:这是一个好人,我不希望他们死,所以我(下意识地)排除诊断X,这意味着一定会死。

在这种情况下,在做出诊断时具有足够准确性的计算机系统恕我直言实际上比人类更道德。当然,前提是诊断没有偏见。我认为这是一个实际问题,但理论上可以解决。

一旦确定了诊断,治疗成功的估计就是下一个决定。这也可能会受到人为错误的影响,并且可以访问问题统计信息(同样,无偏见)及其生存可能性的计算机系统可能更独立于人类可能使用的其他因素,但这些因素与案件。

所以基本上,我会说在这种情况下,计算机系统可能比人类更道德。因为你可以捍卫它达成决定的方式,而且它一直没有考虑与手头问题无关的因素。

然而,这并不总是那么容易。在很多情况下,其他因素会影响决策。不过,只要有固定的规则,这可能不是问题。一些问题将是(在每种情况下,患者都会有相同的诊断和预计的生存机会):

  • 一台呼吸机,却是一个8岁的孩子和一个85岁的老人
  • 30岁孕妇和国家总理
  • 一个1个月大的婴儿和一个25岁的学生
  • 一个无家可归的人和亿万富翁

作为一个给定的,系统必须不知道诸如性别、种族、宗教等一般特征。但是你如何考虑年龄、社会地位和一大堆其他因素?

如果情况没有区别,最公平的方法是掷硬币。这肯定会让很多人感到不安(“你怎么能证明让我们的总统在这个危机时刻死去!”),但如果你有明确的规定(“如果一个病人在更高的税级,他们会得到优先权” ) 你可能会让更多人感到不安。拥有这样的规则的好处是明确偏见,并在某种程度上保护护士或护理人员不必在富有的参议员和无家可归的人之间做出决定——如果你决定反对他们,他们的家人更有可能追随你。 ? 如果你有明确的、明确的规则,为什么不使用它们来指导人工智能系统呢?

每个人都有自己的偏好,我很高兴我不必做出这些决定——这对我来说听起来像是一项可怕的任务。上述案子一个一个基本都判了死刑,你怎么能睡得安稳呢?

这是关于人工智能伦理的另一个因素:通过让人类不必做出这样的决定,它也会产生有益的影响。如果最终决定与人类做出的相同,那么这是一个双赢的局面。但这可能不太可能,因为存在一系列潜意识偏见。

对我来说,主要问题似乎是在“计算机说不”的情况下缺乏追索权。当一个人做出决定时(就像比赛中的裁判),如果人们对它不满意,总会有争论。但在这种情况下,不可能没有。神谕说,你父亲会死的。对不起,不可能有其他结果。人为的决定可能是一样的,但它不会让人觉得“冷”:你可以观察到做出决定的人必须与它斗争。你可能明白这不是一个容易的选择。有了电脑,这个元素就不见了。

无论如何,总结一下:鉴于各种警告,

  • 足够准确和公正的诊断,
  • 治疗结果的无偏预测,
  • 透明处理非医疗因素,

我想说的是,人工智能系统会让我更合乎道德,因为它有一种原则性的方式来做出决定,不会使任何一组患者处于不利地位,并且总是会为同一位患者做出相同的决定;此外,它减轻了分诊人员的沉重负担,否则他们必须做出这样的决定。

这并不意味着我会对我所爱的人的生存由这样的系统决定感到高兴:)

奥利弗的回答很有趣,它提供了有价值的信息(例如对分类过程的简要描述,我不知道),但我不同意他的结论,或者至少,我认为这可能会产生误导,因为他暗示这是“更有道德”,因为人工智能将以“更有原则的方式”行事。这取决于您对“道德”的定义(我将在下面回忆一个)以及以“更有原则的方式”行事的含义。

首先,我们应该强调,当前的人工智能系统可能而且通常是有偏见的,因为它们主要是用与人类及其行为相关的数据进行训练的(正如 Gerry 在他的回答中指出的那样)。此外,目前,人工智能系统(包括用于医疗保健的系统)仅由人类设计,人类可以自动且经常不经意地引入偏见,例如,通过选择特定的人工智能模型而不是另一个、数据、如何处理或获取数据. (也许,未来人工智能系统会设计其他人工智能系统,但这真的能减少偏见吗?鉴于人类可能会设计出第一个能够设计其他人工智能系统的人工智能系统,那么这个第一个人工智能系统中引入的偏见会不会也会传播到其他 AI 系统?)

原则上,人工智能可以做出更理性的决定,特别是如果它不受人类限制的影响(这通常不是限制,比如感觉;例如,如果你在撞到椅子时没有感到疼痛,你就会开始流血而没有甚至没有注意到它)使人类有时会采取非理性的行动。

然而,理性的行动也是最合适的吗?这取决于您对理性行为的定义以及我们所说的“适当的行为”是什么意思。

这是字典中“理性”的定义

基于或按照原因或逻辑

尽管人工智能系统通过遵循逻辑规则系统地采取行动,但这些行动仍然基于一些原则或公理,这会使系统产生偏差。所以,一个理性的代理人仍然可以有偏见,但这种偏见将是系统性的。

通常,每个决定都可能存在偏见,因为它基于某些原则并由“主体”做出。

现在,让我们更直接地解决您的问题

让人工智能做出生死攸关的医疗决定是否合乎道德?

首先,让我从字典中报告“道德”的两个定义

与道德原则或处理这些的知识分支有关:

道德上好的或正确的

因此,原始问题可以改写为

让人工智能做出生死攸关的医疗决定在道德上是否有益?

当然,很难争论什么是道德上的好还是坏,因为这通常是主观的。帮助我的朋友对我来说在道德上是好的,但帮助别人不一定在道德上是好的。我们有不同的朋友,所以这自动暗示道德上的好是主观的。

这个问题的答案最终归结为好与坏的哲学问题,这自然是主观的。所以,这个问题的答案将取决于每个人的哲学思想。有些人会说“是”,有些人会说“不”。

我认为回答这个问题更有成效

让人工智能做出生死攸关的医疗决定有哪些优点和缺点?

这个问题可以更客观地回答。例如,我们可以说这将使人类免于从事这项工作,在某些情况下(正如 Oliver 在他的回答中指出的那样),这可能是“不方便的”。但是,我们也可以说,当前的 AI 系统仍然与人类价值观不兼容,它们的思维方式与人类不同,因此它们可能会意外地采取“错误”的行动,这也很难解释(尤其是如果你的 AI系统是或使用黑盒系统,例如神经网络)。

那么,人工智能系统是否应该用于做出生死攸关的医疗决策?

我认为人们应该“民主地”决定,并且应该有绝大多数人的接受,例如不仅仅是 51%,而是例如 95-99% 的人应该同意让人工系统夺走生命的想法-或——死亡决定。为了进行合理的投票,人们应该意识到这种投票的后果,这意味着人们应该知道人工智能系统的内部运作以及他们可以做什么或不做什么(这在人工智能系统通常是不可能的)也由黑盒模型组成,例如神经网络)。或者,允许或不允许人工智能做出这样的决定也可以根据具体情况进行。

所有这些问题都与“可解释的人工智能”、“问责制”、“透明度”有关,这些问题在过去几年中的争论越来越多。

从表面上看,这听起来很可怕——一种将责任转移到一种无意识机制上的措施,这种机制不能因错误而受到有意义的惩罚。

但是,我会争辩:

  • 将这个决定从医生手中夺走是人道的好处:心理损失

具体来说,医生不是资源稀缺的原因,但他们是被迫做出由稀缺驱动的生死攸关的决定的人,这必须付出代价。

从本质上讲,除非一个人是反社会者,否则就会产生情绪影响。在这里,纯算法的“社会病态”为人类减轻了这种可怕的负担。

(甚至可以减少倦怠,让更多的医生工作更长时间,更专注。)

我不同意训练有素的机器学习模型是公正的。模型在包含特征的数据集上进行训练。人类准备这些数据集并决定数据集中包含哪些特征。该模型只知道它训练的是什么。人类偏见仍然存在,只是不那么明显。

为了直接解决您的问题,我认为的答案是,让人类做出这样的决定并不或多或少合乎道德,因为最终人类创造了人工智能模型。

然而,我担心的只是:

一旦我们将其卸载到人工智能,我们将不再对结果负责。“机器”的心态做出的选择会让我们很容易让位。如果执行 AI 决策的人不是开发 AI 的人,则尤其如此。当然,人类不得不反复制造生死,将遭受严重且可能具有毁灭性的损失。所以,最终,这是一个权衡,但从我的角度来看,我认为退位的风险及其后果更重要。但我不是那个面临生死抉择的人。