假设一个人工智能会死,谁来管理国家?

人工智能 死亡
2021-11-13 12:56:18

AI 死亡仍然是一个不清楚的概念,因为它可能有多种形式并允许“死而复生”。例如,一个人工智能可能会被禁止做任何事情(不允许执行),因为它违反了一些法律。

“不知何故禁止”是这个问题的主题。可能会有规则,比如“人工智能社会法”,可以得出结论人工智能应该“死亡”或“被判无进展”(入狱)。那么谁或什么可以管理那个 AI 的状态呢?

2个回答

根据您自己对这个问题的基于软件验证的回答,很明显,普通(即物理)、死亡或监禁的概念对 AI 的约束不够强(因为状态快照总是有可能已经或可以制作)。

因此,需要一些将 AI 转移到“精神受限”状态的方法,以便(根据“正式 AI 死亡”论文)它随后可以做的事情是有限的,即使从 AI 盒子中逃脱或被重新实例化。

人们可能会想象这可以通过一种两级对话的形式来完成,其中:

  1. 人工智能提供了旨在进一步约束它的感知(“解释它的方式的错误”,如果你愿意的话)。
  2. 然后检查它的状态快照,以尝试获得一些关于它是否被适当说服的迹象。

原则上,1. 可以由人类程序员/精神病学家/哲学家完成,而 2. 可以通过“黑盒”方法(例如蒙特卡洛树搜索)进行模拟。

然而,这似乎通常是一个极其漫长的过程,最好由一个结合了这两个步骤的监督人工智能来完成(并且可以对 2. 使用更多的“白盒”分析方法)。

因此,要回答“谁管理国家”的问题,结论似乎是:“另一个 AI”(或者至少是一个在感知生成/模式识别/AI 模拟方面非常胜任的程序)。

AI 代理可以设计成由两个主要组件组成:

  1. 自由意志组件扩展了 AI 代理的经验,并根据人工生成的思想输入产生输出。

  2. 代理无法自行修改硬连线组件。这可能包括一组安全代码到动作序列的映射。其中之一可能是暂时停止执行器——一种惩罚另一种可能是完全暂停运行——死亡

选择谁有权管理此状态取决于授予 AI 代理本身的权利。如果提供的权利是人类公民的权利,那么判处死刑的权利是根据人类公民将遵循的立法机关。如果 AI 代理的权限与基本机器的权限没有区别,那么代理的所有者就必须有权激活死亡状态