阿西莫夫定律在设计上有缺陷,还是在实践中可行?

人工智能 人工智能安全 阿西莫夫定律
2021-10-18 20:04:51

艾萨克·阿西莫夫著名的机器人三定律起源于阿西莫夫的科幻故事背景。在这些故事中,这三项法律作为一种安全措施,以避免不合时宜或被操纵的情况发生严重破坏。

通常情况下,阿西莫夫的叙述会找到打破它们的方法,导致作者自己对法律进行多次修改。例如,在他的一些故事中,他修改了第一定律添加了第四(或第零)定律,甚至完全删除了所有定律

然而,很容易争辩说,在流行文化中,甚至在人工智能研究领域本身,机器人定律都受到了相当重视。忽略对法律的不同的、主观的和相互排斥的解释的附带问题,是否有任何论据证明法律本身在设计上存在内在缺陷,或者,足够强大以供在现实中使用?同样,是否为此目的设计了更好、更严格的安全启发式集?

3个回答

阿西莫夫定律不够强大,无法在实践中使用。考虑到因为它们是用英语写的,所以强度甚至都不是一个考虑因素,因此首先必须主观地解释它们才具有任何意义。你可以在这里找到一个很好的讨论

转录摘录:

你如何定义这些东西?您如何定义“人”,而不必首先对几乎所有问题采取立场。如果“人”还不够难,那么你必须定义“伤害”,你又遇到了同样的问题。你对这些词给出的几乎任何真正可靠的明确定义——不依赖于人类直觉——都会导致哲学上的怪癖,导致你的人工智能做一些你真的不希望它做的事情。

可以很容易地想象,阿西莫夫足够聪明,知道这一点,并且对故事写作比设计真实世界的人工智能控制协议更感兴趣。

在小说《神经漫游者》中,有人提出 AI 可能会相互制约。Ray Kurzweil 即将到来的奇点,或者超智能 AGI 的可能性,可能根本不会给人类留下太多控制 AI 的可能性,而同行监管是唯一可行的可能性。

值得注意的是,Eliezer Yudkowsky 和其他人进行了一项实验,其中 Yudkowsky 扮演了具有说话能力的超级智能 AI 的角色,但在锁定的盒子之外没有其他连接。挑战者的任务只是不惜一切代价将人工智能留在盒子里。Yudkowsky 两次都逃脱了。

阿西莫夫专门制定了三个定律来证明没有三个定律是足够的,无论它们起初看起来多么合理。我认识一个认识这个人的人,他证实了这一点。

考虑阿西莫夫的机器人第一定律:

机器人不得伤害人类,或因不作为而让人类受到伤害。

考虑到自动驾驶汽车,该法律已经存在问题。

你问这里有什么问题?好吧,您可能熟悉伦理学中的经典思想实验,即电车问题问题的一般形式是这样的:

电车直奔他们而来。你站在离火车站不远的地方,靠近一个杠杆。如果拉动此杆,手推车将切换到另一组轨道。但是,您注意到旁边的轨道上有一个人。你有两个选择:(1)什么都不做,电车杀死主轨道上的五个人。(2) 拉动控制杆,将手推车转移到会导致一人死亡的侧轨上。哪个是正确的选择?

来源:维基百科

自动驾驶汽车实际上需要在电车问题上实现现实生活中的变化,这基本上意味着自动驾驶汽车需要被编程来杀死人类

当然,这并不意味着所有的机器人都需要被编程来杀人,但自动驾驶汽车就是这样一种机器人的一个很好的例子。