是否有必要创建理论/基础设施以防止人们创建与安全模型不兼容的人工智能(如果我们创建一个)?

人工智能 哲学 人工智能安全
2021-11-02 13:53:25

现在我们不知道如何以安全的方式创建 AI(我认为我们甚至还不知道如何定义安全的 AI),但是在开发允许它的模型方面有很多研究。

假设有一天我们发现了这样一个模型(甚至有可能在数学上证明它的安全性)。问一下,我们如何防止人们在这个模型之外创建人工智能是合理的(例如,他们对自己的模型非常有信心,以至于他们只是追求它并最终得到类似的东西paperclip scenario)?

我们是否还应该考虑创建一些理论/基础设施来防止这种情况发生?

1个回答

似乎不可能阻止这种情况。如果有人可以在不久的将来从头开始制作一个安全的 AI,那么其他人也可以从头开始制作一个危险的 AI。如果所需要的只是一台计算机(或最终是一台机器人),那么很难阻止人们创造一台计算机。

禁止电脑?也许它可以阻止它,但这也带来了很多负面影响。

禁止创造人工智能的法律?真的很难跟进,那么人们想要制作的人工智能如何用于“好”的事情呢?

即使我们能提出一套好的法律,它们也可能不会在所有国家都被引入,而且也很难跟进。

我想我们只需要建立我们自己的防御机制,以便在那个时候来对抗不安全的人工智能(物理上或虚拟上)。