AI 死亡仍然是一个不清楚的概念,因为它可能有多种形式并允许“死而复生”。例如,一个人工智能可能会被禁止做任何事情(不允许执行),因为它违反了一些法律。
“不知何故禁止”是这个问题的主题。可能会有规则,比如“人工智能社会法”,可以得出结论人工智能应该“死亡”或“被判无进展”(入狱)。那么谁或什么可以管理那个 AI 的状态呢?
AI 死亡仍然是一个不清楚的概念,因为它可能有多种形式并允许“死而复生”。例如,一个人工智能可能会被禁止做任何事情(不允许执行),因为它违反了一些法律。
“不知何故禁止”是这个问题的主题。可能会有规则,比如“人工智能社会法”,可以得出结论人工智能应该“死亡”或“被判无进展”(入狱)。那么谁或什么可以管理那个 AI 的状态呢?
根据您自己对这个问题的基于软件验证的回答,很明显,普通(即物理)、死亡或监禁的概念对 AI 的约束不够强(因为状态快照总是有可能已经或可以制作)。
因此,需要一些将 AI 转移到“精神受限”状态的方法,以便(根据“正式 AI 死亡”论文)它随后可以做的事情是有限的,即使从 AI 盒子中逃脱或被重新实例化。
人们可能会想象这可以通过一种两级对话的形式来完成,其中:
原则上,1. 可以由人类程序员/精神病学家/哲学家完成,而 2. 可以通过“黑盒”方法(例如蒙特卡洛树搜索)进行模拟。
然而,这似乎通常是一个极其漫长的过程,最好由一个结合了这两个步骤的监督人工智能来完成(并且可以对 2. 使用更多的“白盒”分析方法)。
因此,要回答“谁管理国家”的问题,结论似乎是:“另一个 AI”(或者至少是一个在感知生成/模式识别/AI 模拟方面非常胜任的程序)。
AI 代理可以设计成由两个主要组件组成:
自由意志组件扩展了 AI 代理的经验,并根据人工生成的思想输入产生输出。
代理无法自行修改的硬连线组件。这可能包括一组安全代码到动作序列的映射。其中之一可能是暂时停止执行器——一种惩罚。另一种可能是完全暂停运行——死亡。
选择谁有权管理此状态取决于授予 AI 代理本身的权利。如果提供的权利是人类公民的权利,那么判处死刑的权利是根据人类公民将遵循的立法机关。如果 AI 代理的权限与基本机器的权限没有区别,那么代理的所有者就必须有权激活死亡状态。