自动驾驶汽车如何做出关于杀死谁的道德决定?
它不应该。自动驾驶汽车不是道德代理人。汽车以可预测的方式失败。马以可预测的方式失败。
车子正朝着过马路的10人的人群驶去,所以不能及时停车,但可以避免撞墙致10人死亡(撞死乘客),
在这种情况下,汽车应该猛踩刹车。如果这10个人死了,那就太不幸了。我们根本无法相信我们对车外发生的事情的所有信念。如果这 10 个人真的是机器人,看起来像人呢?如果他们想杀了你怎么办?
考虑到汽车乘客的生存概率更大,避免杀死摩托车的骑手,
同样,将这些情绪硬编码到车辆中会使车辆的骑手面临各种攻击,包括“假”摩托车手。人类几乎没有能力自己做出这些决定,如果有的话。当它怀疑时,只需猛踩刹车。
在街上杀死动物以支持人类,
再次,只是踩刹车。如果是婴儿呢?如果是炸弹呢?
改变车道撞上另一辆车以避免杀死狗,
不。狗在错误的时间出现在错误的地方。另一辆车没有。尽可能安全地踩刹车。
算法能识别人和动物之间的区别吗?
一个人吗?不总是。如果人类有枪怎么办?如果动物的牙齿很大怎么办?没有上下文吗?
- 人或动物的大小重要吗?
- 它会计算它有多少乘客与前面的人吗?
- 它是否“知道”婴儿/儿童何时登机?
- 是否考虑到年龄(例如先杀死老年人)?
人类无法在这些事情上达成一致。如果你问警察在这些情况下该怎么做,答案不会是:“你应该向左转弯,在脑海中权衡所有相关方,评估各方之间的相关年龄,然后稍微向右转向,你会多挽救 8% 的生命。” 不,警察只会说:“你应该尽快安全地停下车。” 为什么?因为警察知道人们通常不具备应对高速碰撞场景的能力。
我们“自动驾驶汽车”的目标不应该是“与人类同等的道德代理人”。它应该是一种具有蟑螂反应复杂性的代理,它可以预见地失败。