我会将这些问题解释为关于分类的问题。这在危机情况下尤其重要,在这种情况下,必须做出许多这样的生死攸关的决定。
在START 系统中有四个不同的类别:
- 死者,无可救药
- 可以通过立即运输得到帮助的伤者
- 伤势较轻的伤员,其运输可能会延误
- 那些轻伤不需要紧急护理的人。
根据分配给患者的类别,然后您决定做什么。其他系统可能更细粒度,但原理是相同的:实际上,人类决策在分类中,然后指导资源分配。在上面的列表中,第二类可能是治疗的最高优先级。但是一旦确定了类别,就确定了行动方案,尽管随后将针对每种情况考虑实际的治疗方案。
因此,伦理是对生存机会的判断:如果护士认为患者 X 离得太远而无法进行治疗,那就是这样。所以这是困难的部分,生死攸关的决定。
那么有两个方面需要考虑:
- 诊断的准确性
- 治疗有效的预测可能性
诊断应该是(我不是医生!)相当中立。当然有误诊,但不涉及价值判断。步骤 1 和步骤 2 之间可能存在一些“泄漏”,因为在决定问题所在时,人类可能会受到诊断治疗前景的影响。如:这是一个好人,我不希望他们死,所以我(下意识地)排除诊断X,这意味着一定会死。
在这种情况下,在做出诊断时具有足够准确性的计算机系统恕我直言实际上比人类更道德。当然,前提是诊断没有偏见。我认为这是一个实际问题,但理论上可以解决。
一旦确定了诊断,治疗成功的估计就是下一个决定。这也可能会受到人为错误的影响,并且可以访问问题统计信息(同样,无偏见)及其生存可能性的计算机系统可能更独立于人类可能使用的其他因素,但这些因素与案件。
所以基本上,我会说在这种情况下,计算机系统可能比人类更道德。因为你可以捍卫它达成决定的方式,而且它一直没有考虑与手头问题无关的因素。
然而,这并不总是那么容易。在很多情况下,其他因素会影响决策。不过,只要有固定的规则,这可能不是问题。一些问题将是(在每种情况下,患者都会有相同的诊断和预计的生存机会):
- 一台呼吸机,却是一个8岁的孩子和一个85岁的老人
- 30岁孕妇和国家总理
- 一个1个月大的婴儿和一个25岁的学生
- 一个无家可归的人和亿万富翁
作为一个给定的,系统必须不知道诸如性别、种族、宗教等一般特征。但是你如何考虑年龄、社会地位和一大堆其他因素?
如果情况没有区别,最公平的方法是掷硬币。这肯定会让很多人感到不安(“你怎么能证明让我们的总统在这个危机时刻死去!”),但如果你有明确的规定(“如果一个病人在更高的税级,他们会得到优先权” ) 你可能会让更多人感到不安。拥有这样的规则的好处是明确偏见,并在某种程度上保护护士或护理人员不必在富有的参议员和无家可归的人之间做出决定——如果你决定反对他们,他们的家人更有可能追随你。 ? 如果你有明确的、明确的规则,为什么不使用它们来指导人工智能系统呢?
每个人都有自己的偏好,我很高兴我不必做出这些决定——这对我来说听起来像是一项可怕的任务。上述案子一个一个基本都判了死刑,你怎么能睡得安稳呢?
这是关于人工智能伦理的另一个因素:通过让人类不必做出这样的决定,它也会产生有益的影响。如果最终决定与人类做出的相同,那么这是一个双赢的局面。但这可能不太可能,因为存在一系列潜意识偏见。
对我来说,主要问题似乎是在“计算机说不”的情况下缺乏追索权。当一个人做出决定时(就像比赛中的裁判),如果人们对它不满意,总会有争论。但在这种情况下,不可能没有。神谕说,你父亲会死的。对不起,不可能有其他结果。人为的决定可能是一样的,但它不会让人觉得“冷”:你可以观察到做出决定的人必须与它斗争。你可能明白这不是一个容易的选择。有了电脑,这个元素就不见了。
无论如何,总结一下:鉴于各种警告,
- 足够准确和公正的诊断,
- 治疗结果的无偏预测,
- 透明处理非医疗因素,
我想说的是,人工智能系统会让我更合乎道德,因为它有一种原则性的方式来做出决定,不会使任何一组患者处于不利地位,并且总是会为同一位患者做出相同的决定;此外,它减轻了分诊人员的沉重负担,否则他们必须做出这样的决定。
这并不意味着我会对我所爱的人的生存由这样的系统决定感到高兴:)