我了解 AI 研究人员正在尝试创建 AI 设计,以允许所需的行为而不会产生不良的副作用。一个典型的尝试例子是艾萨克·阿西莫夫的机器人三定律。由于措辞模糊,这个想法似乎已被揭穿。特别是,我意识到故事中确切的 3 条定律是行不通的,但肯定有一组更强大的定律可以限制人工智能的良好行为,就像人们受到法律的限制一样。
为什么 AI 研究人员不接受像以下这样的想法(只是让法律更具体):
如果联合国投票支持拥有最公平法律的国家,并且所有效用函数都有 2/3 的分数是由不违反任何这些法律组成的,那会怎么样。如果人工智能有问题,它可以像法官一样查看法庭判例或询问人类(它的三分之二的分数在线,它应该非常谨慎)。
几千年来,人们一直在寻找法律的漏洞,可能不会留下任何灾难性的漏洞。(当然不会很暴力)
如果这仍然是一个悬而未决的问题,我一定会遗漏一些东西。