自动驾驶汽车如何做出关于杀死谁的道德决定?

人工智能 哲学 伦理 自动驾驶汽车 决策理论
2021-11-16 19:07:49

显然,自动驾驶汽车并不完美,所以想象一下谷歌汽车(作为一个例子)陷入了困境。

以下是由一系列事件引起的不幸情况的一些示例:

  • 车子开向10人过马路的人群,无法及时停车,但可以避免撞墙致10人死亡(撞死乘客),
  • 考虑到汽车乘客的生还概率更大,避免杀死摩托车的骑手,
  • 为了人类而在街上杀死动物,
  • 故意改变车道撞上另一辆车以避免杀死狗,

这里有一些困境:

  • 算法能识别人和动物之间的区别吗?
  • 人或动物的大小重要吗?
  • 它会计算它有多少乘客与前面的人吗?
  • 它是否“知道”婴儿/儿童何时登机?
  • 是否考虑到年龄(例如先杀死老年人)?

算法如何从技术角度决定它应该做什么?它是否意识到上述(计算杀死的概率),或者没有(为了避免自己的毁灭而杀死人)?

相关文章:

4个回答

自动驾驶汽车如何做出关于杀死谁的道德决定?

它不应该。自动驾驶汽车不是道德代理人。汽车以可预测的方式失败。马以可预测的方式失败。

车子正朝着过马路的10人的人群驶去,所以不能及时停车,但可以避免撞墙致10人死亡(撞死乘客),

在这种情况下,汽车应该猛踩刹车。如果这10个人死了,那就太不幸了。我们根本无法相信我们对车外发生的事情的所有信念。如果这 10 个人真的是机器人,看起来像人呢?如果他们想杀了你怎么办?

考虑到汽车乘客的生存概率更大,避免杀死摩托车的骑手,

同样,将这些情绪硬编码到车辆中会使车辆的骑手面临各种攻击,包括“假”摩托车手。人类几乎没有能力自己做出这些决定,如果有的话。当它怀疑时,只需猛踩刹车。

在街上杀死动物以支持人类,

再次,只是踩刹车。如果是婴儿呢?如果是炸弹呢?

改变车道撞上另一辆车以避免杀死狗,

不。狗在错误的时间出现在错误的地方。另一辆车没有。尽可能安全地踩刹车。

算法能识别人和动物之间的区别吗?

一个人吗?不总是。如果人类有枪怎么办?如果动物的牙齿很大怎么办?没有上下文吗?

  • 人或动物的大小重要吗?
  • 它会计算它有多少乘客与前面的人吗?
  • 它是否“知道”婴儿/儿童何时登机?
  • 是否考虑到年龄(例如先杀死老年人)?

人类无法在这些事情上达成一致。如果你问警察在这些情况下该怎么做,答案不会是:“你应该向左转弯,在脑海中权衡所有相关方,评估各方之间的相关年龄,然后稍微向右转向,你会多挽救 8% 的生命。” 不,警察只会说:“你应该尽快安全地停下车。” 为什么?因为警察知道人们通常不具备应对高速碰撞场景的能力。

我们“自动驾驶汽车”的目标不应该是“与人类同等的道德代理人”。它应该是一种具有蟑螂反应复杂性的代理,它可以预见地失败。

许多这些问题的答案取决于设备的编程方式。能够四处行驶并识别道路走向的计算机可能具有在视觉上区分人与动物的能力,无论是基于轮廓、图像还是大小。通过足够清晰的图像识别,它可能能够计算出另一辆车中的人数和种类。它甚至可以使用关于不同类型车辆中人员受伤可能性的现有数据。

最终,人们在所涉及的道德选择上存在分歧。也许用户/所有者可以配置“道德设置”,例如“仅考虑生命计数”与“年轻的生命更有价值”。我个人认为,机器在伤害人类之前应该先损坏自己并没有太大的争议,但人们对宠物生命的重要性持不同意见。如果明确的“先杀”设置让人们感到不安,则可以通过给用户的调查问卷来确定答案。

就个人而言,我认为这可能是一个被夸大的问题。只有在优化情况以防止“第三种选择”时,才会出现手推车问题。

汽车有刹车,不是吗?“但是如果刹车不起作用怎么办?” 好吧,那么这辆车根本不允许开车。即使在正常的交通中,人类操作员也被告知,你的速度应该被限制,这样你就可以在你能看到的区域内停下来。像这样的解决方案将减少手推车问题的可能性。

至于动物……如果没有明确的努力在路上与人类打交道,我认为动物会受到同样的对待。这听起来难以置信 - 路杀经常发生,人类“路杀”是不受欢迎的,但动物比人类小得多,也更难看到,所以我认为检测人类会更容易,防止很多事故。

在其他情况下(错误、驾驶时出现故障、多个故障相互叠加),可能会发生事故,对其进行分析,并对车辆进行更新以避免造成类似情况。

在现实世界中,将根据法律做出决定,正如 Law.SE所述,法律通常倾向于不作为而不是作为。