是否有可能实现阿西莫夫的机器人三定律?

人工智能 执行 机器人技术 阿西莫夫定律
2021-11-02 02:35:13

是否有可能将阿西莫夫的机器人三定律放入人工智能中?

这三个法律是:

  1. 机器人(或更准确地说,人工智能)不能伤害人类,或者通过不作为而让人类受到伤害1

  2. 机器人必须听从人类的指令,只要不违反第一定律。

  3. 机器人必须保护自己的存在,如果这不与前两条定律相抵触的话。

4个回答

最具挑战性的部分是第一定律的这一部分:

或因不作为而使人受到伤害

人类总是以各种方式无意中伤害自己。严格遵守该法律的机器人将不得不花费所有时间来帮助人们摆脱自己的笨拙,并且可能永远无法完成任何有用的工作。无法移动的人工智能不必到处乱跑,但它仍然必须想办法阻止它可以想象的所有事故。

无论如何,要全面实施这些法律,需要非常先进的认识和认知。(你怎么知道那边的工业机器即将向那个走进工厂的孩子释放一团灼热的蒸汽?)通过一系列事件弄清楚一个人是否会在给定动作后最终受到伤害变得一个非常具有挑战性的问题很快。

以任何有意义的方式定义“伤害”,特别是“允许通过不作为造成伤害”都是困难的。例如,机器人是否应该将所有时间都花在四处飞行以防止人类吸入被动烟雾或汽油烟雾?

此外,“冲突”的解释(在规则 2 或 3 中)是完全开放的。在我看来,解决此类冲突通常是“AI 完备的”。

人类有很好的机制(行为和社会)在一个复杂的世界中进行互动(大部分)而不会互相伤害,但这些可能并不那么容易编码。位于此之上的一组复杂的法律规则(污染法规等)是我们最容易编程的规则,但相对于潜在的生理和社会“规则”而言,它们确实非常专业。

编辑:从其他评论来看,似乎值得区分“所有可能的伤害”和“人类通常预期的所有伤害”。似乎已经达成共识,即“所有可能的伤害”是行不通的,这仍然是一项艰巨的(IMO,AI-complete)任务,即等同于人类预测伤害的能力。

即使我们能做到这一点,如果我们将其视为实际法律,那么我们仍然需要一个正式的冲突解决机制(例如“机器人,除非你打那个人,否则我会自杀”)。

我认为这在某种意义上几乎是一个诡计问题。让我解释:

对于第 1 条规则,任何 AI 都将遵守第一条规则,除非它被故意创建为恶意的,因为它会理解伤害迫在眉睫,但不会做任何事情或会积极尝试伤害。任何“合理”的人工智能都会(尽其所能)防止任何它理解的伤害,但不能对“它不知道”的迫在眉睫的伤害做出反应,因此满足法则 1。任何“尽最大努力”防止伤害的人工智能都可以在这里工作.

对于法则 2,这只是设计问题。如果可以设计一个能够解析和理解整个人类语言(不仅仅是语音)的人工智能,只需对其进行编程,使其采取相应的行动,同时牢记第一定律。因此,我认为我们可以开发一种人工智能,它会服从它理解的每一个命令但让它理解任何我认为是不可能的事情。

对于第 3 条,它与第 1 条相同。

总之,我认为实现这样的 AI 没有哲学问题,但这样的 AI 的实际设计基本上是不可能的(了解所有可能的危害和所有可能的命令)。

Weld 和 Etzioni的论文The First Law of Robotics (a call to arm) (AAAI-94) 讨论了第一条阿西莫夫定律,它引起的一些技术问题(其中一些已经在其他答案中提到),以及如何解决它们(他们提出了一种将第一定律形式化的简单方法,但他们并不声称这是正确的方法)。您应该阅读它以获取更多详细信息。