为面临暴力和犯罪(例如抢劫(部分)、损坏或绑架)等危险的公共步行机器人实施人工智能进行自卫是否合乎道德?
这种人工智能行为的优缺点是什么?它是现实的,还是由于某些明显的原因而不会被考虑在内?
就像当有人开始推某人时推回某人(人工智能会说:他先推了我),或者在拥挤的街道上逃跑,以防算法检测到绑架风险。
为面临暴力和犯罪(例如抢劫(部分)、损坏或绑架)等危险的公共步行机器人实施人工智能进行自卫是否合乎道德?
这种人工智能行为的优缺点是什么?它是现实的,还是由于某些明显的原因而不会被考虑在内?
就像当有人开始推某人时推回某人(人工智能会说:他先推了我),或者在拥挤的街道上逃跑,以防算法检测到绑架风险。
该问题提到了“步行机器人”,但从自动驾驶汽车的角度重新构建讨论可能是说明性的,因为:
那么,如果有人试图偷车,自动驾驶汽车是否应该碾过(可能会杀死他们)?我希望很少有人会争论它应该。
它是否应该尝试造成较小的伤害(例如,计算希望只折断一条腿)?
再说一次,我不认为。这么说的主要原因是我们的决策算法根本没有足够的上下文感知能力来决定盗窃或伤害是意图。为了具体说明这一点:最近发生了一起死亡事故,因为一辆自动驾驶的特斯拉在某种程度上忘记了上下文,以至于它无法区分高边货车和空旷的空间。
在这种情况下,最好不要让商业自治系统造成物理损坏(即使是无生命的物体)。
“逃跑”(或者更确切地说,在汽车的情况下是“开走”)是另一回事:驾驶是它的设计目的。
这取决于机器人的丢失是否最终会对人类造成伤害。
如果机器人应该监视可疑的恐怖袭击开始发生(因此它可以警告当局或停止袭击),如果有人拆除机器人或以其他方式阻止它执行任务,那将是非常糟糕的。在这种情况下,该设备肯定有理由阻止人类以任何有意义的方式对其进行伤害。
携带机密信息的机器人应该同样愿意保护自己,因为此类数据的传播可能会给一个国家或很多人带来伤害。
如果启用 AI 的设备只是在执行一些平凡任务的过程中走在街上,我认为很难证明允许机器人使人类攻击者丧失能力是合理的。毕竟,它是为人类服务而制造的。
不管人工智能是否被编程来保护自己,人们都不能轻易地阻止或破坏它而不受惩罚。蓄意破坏他人财产(包括公共财产)几乎可以肯定是犯罪,蓄意妨碍执法也是如此。不必由每个机器人来保护自己;它可以在其死亡之前将有关肇事者的信息发送给 C&C。