为什么 AI 安全性比艾萨克·阿西莫夫的“机器人三定律”要难得多?

人工智能 人工智能设计 敏捷 人工智能安全 新卢德主义 阿西莫夫定律
2021-11-01 06:09:18

我了解 AI 研究人员正在尝试创建 AI 设计,以允许所需的行为而不会产生不良的副作用。一个典型的尝试例子是艾萨克·阿西莫夫的机器人三定律由于措辞模糊,这个想法似乎已被揭穿。特别是,我意识到故事中确切的 3 条定律是行不通的,但肯定有一组更强大的定律可以限制人工智能的良好行为,就像人们受到法律的限制一样。

为什么 AI 研究人员不接受像以下这样的想法(只是让法律更具体):

如果联合国投票支持拥有最公平法律的国家,并且所有效用函数都有 2/3 的分数是由不违反任何这些法律组成的,那会怎么样。如果人工智能有问题,它可以像法官一样查看法庭判例或询问人类(它的三分之二的分数在线,它应该非常谨慎)。

几千年来,人们一直在寻找法律的漏洞,可能不会留下任何灾难性的漏洞。(当然不会很暴力)

如果这仍然是一个悬而未决的问题,我一定会遗漏一些东西。

1个回答

这很难的原因是因为理解法律的含义并非易事。许多人仍然很难理解法律,因此我们有数以百万计的法官和律师学习多年,甚至能够辩论法律是否被违反。

对于人工智能来说,更普遍地理解法律的问题是更大问题的副产品,即今天的人工智能还没有将输入(文本、音频、其他传感器数据)转化为概念的机制。这一点在最先进的对话系统中也很明显,这些对话系统与特定主题集的对话作斗争。

然而,尝试将一阶逻辑与统计推断相结合的概率逻辑编程语言取得了有希望的结果(LPMLN是一个例子)。从理论上讲,这些语言可以为未来的人工智能律师(或任何人应该称呼他们的人)提供一种准确编码法律含义的方法。使用这组或编码的法则,具有足够丰富表示的系统可以确定一个动作是否会破坏法则。这听起来不错,但“足够丰富的表示”甚至超出了当今最好的深度学习系统(或任何其他架构)所能做的。相比之下,当今最好的深度学习系统甚至没有良好的对象持久性,人类大约 4-7 个月大的东西。要求这些深度学习系统也能够表示法律的复杂性,远远超出了当前的人工智能能力。

另一个有前途的领域是只包括文本数据和人工判断这并不意味着 AI 会立即遵守法律,但它是 AI 理解法律的开始。