如果人类可以在机器中创造人造生命,我们什么时候才能定义它是死亡?

人工智能 哲学 死亡
2021-11-15 23:29:52

一个人真的可以杀死一台机器吗?我们不仅在定义生命方面有问题,我们在定义死亡方面也有问题。这在人工生命和人工智能中也会成立吗?

4个回答

我们所知道的自然生命的死亡是终末期的。那一旦死了,自然生命就不能再回来了(至少在当前的理解和当前的技术下——有些人不这么认为)。

人工智能的死亡更加棘手。可能只有一种情况: 全球毁灭:支持人工智能存在的一切都消失的极端情况。这相当于自然生命中的死亡,而且概率很低。这意味着所有的 AI 都会同时死亡(包括我们)。

我们也不知道 AGI 所必需的体现的程度和形式。我们现在可以假设硬件可以无限期更换,从而将死亡“限制”在上述极端情况下。但 AGI 的“身体”可能不是无限可替代的。那么可能需要一个更接近自然生死的定义。


我们看到其他两种情况的论据,我在下面反驳

“静态死亡”:AI 仍然在某个地方“定义”或“保存”(无论它实际上意味着什么),但它没有被授权或无法使用资源。假设一个人工智能是由硬件和软件组成的,它就像一个存储在磁盘上的程序,但没有权限运行。

“动态死亡”:在与硬件和软件相同的人工智能特征下,动态死亡是类似于强活性属性的进步无效,其中人工智能被困在无限循环(或无效循环)中,形式为“主动死亡”,就像希腊神话中的西西弗斯发生的那样。这与静态死亡不同,因为人工智能仍然使用动态资源,尽管它无法取得进展。在相同的假设下继续,这样的 AI 可以被“加载”到主存储器中,或者被锁定等待输入或输出完成。

请注意,在这两种情况下,重生是可能的,并且它们还包含一个实体可以决定重生的条件,或者完全阻止它。这个实体是“管理员”、神、其他 AI 还是人类是另一个问题,真的。

这里的“死亡”和“重生”可以改成“囚禁”,动态版就像我们的人类监狱,静态版就像科幻低温。这有点牵强,但我们可以看到等效性,并且没有充分的理由将这两种情况定性为死亡。

总之,人工智能的死亡似乎是一种特殊的、奇异的情况,因此人工智能在实践中不会死亡,除非我们认为我们可以制造 AGI 的方式是错误的。然而,人工智能可以被永远囚禁。


注意:以上术语完全是为帖子编造的。我没有引用来支持某些主张,但它基于阅读和个人工作(包括在软件验证中)。

如果 AI 来自可复制的制造过程(例如现代计算机),那么大概可以拍摄 AI 状态的快照并在其他机制上无错误地复制它。

对于这样的构造,“死亡”的含义与现在对我们肉体有机体的含义不同:可能随时可以实例化一个 AI 的多个克隆。

因此,所需的死亡类比更接近于“热力学热死”,其中人工智能不再做“有用的工作”。

使用 AI 的标准感知/动作表征,然后(如问题下方的评论中所示)这个 AI SE 问题给出了 AI 死亡的这样一个定义:即当它进入一个不再接收到任何感知的状态时,并且不采取任何行动。

编辑:请注意,对于 AI 而言,这种死亡概念比“当前未运行”更为终端概念。原则上,即使每 10,000 年只执行一条指令,也可以说程序是“活着的”。有关这方面的有趣讨论,请参阅 Hofstadter 的“与爱因斯坦大脑的对话”

“死亡”作为一个单一的概念存在,因为它所描述的潜在现实紧密地聚集在一起,我们的定义随着我们改变现实的能力而改变。

将可以被视为“死亡”的各种事物分开似乎更合理,并且将使用不同的词来指代当前没有运行副本的系统,而不是没有存储版本但可以重新创建(因为生成它的代码和随机种子仍然存在),而不是完全丢失的系统。(而且我可能错过了一些可能性!)

我不认为“死亡”这个词对人工智能有任何意义。我这么说的原因是:有了人工智能,在数字硬件上运行(大概),我们可以随时简单地从内存中快照它的状态。然后在未来的任何时候,我们都可以以完美的保真度重新创建它。

所以即使你终止了一个打算让它“死”的程序,你永远不知道以后是否有人会出现并再次提出它。也许更重要的是,您可能不知道其他地方是否存在另一个副本。

我讨厌使用科幻参考,但这个很贴切:还记得黑客帝国三部曲中的程序如何在黑客帝国中寻求流放以避免被删除吗?也许我们的人工智能也会发生同样的事情......他们会复制自己到其他地方并试图隐藏,以避免被删除。因此,如果程序足够聪明,它可能能够避免任何终止它的尝试。