现在我们不知道如何以安全的方式创建 AI(我认为我们甚至还不知道如何定义安全的 AI),但是在开发允许它的模型方面有很多研究。
假设有一天我们发现了这样一个模型(甚至有可能在数学上证明它的安全性)。问一下,我们如何防止人们在这个模型之外创建人工智能是合理的(例如,他们对自己的模型非常有信心,以至于他们只是追求它并最终得到类似的东西paperclip scenario
)?
我们是否还应该考虑创建一些理论/基础设施来防止这种情况发生?
现在我们不知道如何以安全的方式创建 AI(我认为我们甚至还不知道如何定义安全的 AI),但是在开发允许它的模型方面有很多研究。
假设有一天我们发现了这样一个模型(甚至有可能在数学上证明它的安全性)。问一下,我们如何防止人们在这个模型之外创建人工智能是合理的(例如,他们对自己的模型非常有信心,以至于他们只是追求它并最终得到类似的东西paperclip scenario
)?
我们是否还应该考虑创建一些理论/基础设施来防止这种情况发生?
似乎不可能阻止这种情况。如果有人可以在不久的将来从头开始制作一个安全的 AI,那么其他人也可以从头开始制作一个危险的 AI。如果所需要的只是一台计算机(或最终是一台机器人),那么很难阻止人们创造一台计算机。
禁止电脑?也许它可以阻止它,但这也带来了很多负面影响。
禁止创造人工智能的法律?真的很难跟进,那么人们想要制作的人工智能如何用于“好”的事情呢?
即使我们能提出一套好的法律,它们也可能不会在所有国家都被引入,而且也很难跟进。
我想我们只需要建立我们自己的防御机制,以便在那个时候来对抗不安全的人工智能(物理上或虚拟上)。