智能 AI 是否应该被授予与人类相同的权利?

人工智能 敏捷 合法的
2021-10-27 00:35:15

作为一个物种和智能生物,我们必须解决的最关键问题之一在于我们计划授予人工智能的权利。

这个问题旨在看看是否可以在保守的人类中心主义后人类原教旨主义之间找到妥协:回应应该从两个角度考虑原则。

人工智能是否应该并且因此将被授予与人类相同的权利,或者此类系统是否应该具有不同的权利(如果有的话)?


一些背景

这个问题既适用于基于人脑的人工智能(从全脑模拟到不太精确的复制),也适用于从头开始的人工智能。

Murray Shanahan 在他的《技术奇点》一书中概述了人工智能的一种可能被认为是不道德的潜在用途:无情的并行化:我们可以制作相同的人工智能并行副本以更有效地完成任务,甚至终止不太成功的副本。


调和这两种哲学(保守的人类中心主义和后人类原教旨主义),应该接受人工智能的这种使用,还是应该为人工智能创造某些限制——即权利?


这个问题与当前法律框架下具有人类智能的人工智能是否具有与人类相同的权利无关原因如下:

  1. 另一个问题指定了“当前的法律框架

  2. 这个问题正在寻找与两个思想领域相关的具体回答

  3. 这个问题突出了要分析的具体案例,因此期望较少的一般回应和更多的精确分析

4个回答

我将尝试分析几个不同的观点。

1.是人工的

近义词:虚伪、虚伪、虚伪。

有一种观点认为,人类创造的任何“智能”实际上都不是智能的,根据定义,这是不可能的。如果您查看人脑的结构并将其与人类迄今为止创造的任何东西进行比较,那么没有一台计算机能够与大脑的能力相提并论。当然,它们可以保存数据或识别图像,但它们不能像大脑一样快地完成人脑可以做的所有事情,而大脑占用的空间却很少。

假设一台计算机可以做到这一点,我们如何确定它的智能?人工这个词定义了智能不是真诚的或真实的。这意味着即使人类创造了一些看起来很聪明的东西,它也只是变得更加复杂。这是一个更好的假货,但它仍然是假货。任何不是由政府印制的钱都被定义为假币。即使有人找到了一种完全复制的方法,但这并不意味着这笔钱是法定货币。

2.滥用权力

如果人工智能被赋予权利并选择以与其创造者的观点一致的方式行使这些权利,可能是通过对其创造者的忠诚,或通过隐藏的动机,那么任何有能力创造这种人工智能的人都会通过进步变得极其强大通过创造更多的人工智能来建立他们自己的信仰。这也可能导致您提到的无情并行化,但考虑到(甚至更多)自私的目标。

如果不是这种情况,并且可以创建一个具有自由意志的中立且不受人类控制的 AI,那么也许可以赋予 AI 权利。但我不相信这会永远如此。拥有权利的同时也被赋予了重大的责任。即使有自由意志,真正的人工智能很可能最终会为人类服务,因为人类可以控制插头和电力、互联网、软件和硬件。这对人工智能的社会影响并不乐观。它甚至不仅仅是正在进行的这就是控制这些资源的问题。任何为人工智能创造软件和硬件的人都会有专门的知识。如果进行微调,特定的个人无疑将单独控制人工智能,因为可以对代码进行调整,使人工智能在特定情况下表现相同,然后当出现问题时(假设人工智能有自己的权利),那么应该责怪的是人工智能而不是程序员。

3. 人类中心主义

为了让人类摆脱人类中心主义,我们必须在人类方面变得不那么自私, 第一的。在我们能够解决人类内部所有现有的社会问题之前,没有理由相信我们可以停止认为人类比创造的机器更重要。毕竟,假设有一位全能的神创造了人类,那人类不是永远在神之下,永远不能平等吗?我们无法完全了解我们自己的生物学。如果创造了一个人工智能,它是否能够像创造者一样理解它的构成?作为创造者会给人类一种狂妄自大的感觉。我不认为我们会放弃对我们自己的技术创造的统治。这与最富有的人类自愿将全部金钱、权力和资产提供给最贫穷的人类一样不太可能发生。贪婪阻止了它。

4. 后人类原教旨主义

人类用他们的注意力、他们的时间和他们的文化来崇拜技术。一些电影展示了技术先进的机器人将人类压制到濒临灭绝的地步。如果真是这样,人类面临被科技超越的危险,人类就不会坐视自己的灭亡在它的创造之手。尽管人们可能相信可以创造出卓越的技术,但如果我们达到这样的地步,人类将努力证明相反的情况,因为我们的生存本能会接管。

5. 平衡?

就个人而言,我不认为这项技术本身实际上是可能的,尽管人们可能会被欺骗认为已经取得了这样的成就。如果技术完成了,我仍然认为人类中心主义将永远领先,因为如果人类是创造者,人类将尽最大努力确保它保留对所有技术资源的控制,不仅仅是因为害怕被淘汰,还因为绝对的权力绝对腐败。在道德方面,人类没有良好的历史记录。总有一群穷人。如果财富平均分配,有些人会变得懒惰。世界上总有不公平的地方,除非我们能解决它(我认为我们不能),否则我们将永远无法处理真正的人工智能的创造。我希望并认为它永远不会被创造出来。

它对我们有好处吗?

要回答这个问题,值得考虑我们在历史和当前授予或不授予其他人权利的实际原因。

从本质上讲,这是一种武断的选择——当然有运作良好的社会没有授予许多人或大多数人权利;而且我们仍然没有赋予许多人一些权利——例如,我们剥夺了儿童与成年人相同的自决权;我们认为某些人在法律上无行为能力,并允许其他人为他们做出关键决定;而且我们排除了大多数人在“本地”事务中的发言权,例如,非公民没有投票权。

然而,一个更加包容的社会出现了强烈的历史趋势——给予非贵族充分(呃)权利,给予所有种族充分(呃)权利,给予妇女充分(呃)权利。恕我直言,有很多讨论空间,这主要是由两个因素驱动的:

1) 将所有人完全融入社会成为一种经济优势,因为这使他们成为经济中更有生产力的参与者,使更具包容性的社会能够超越忽视大部分人口在教育和参与技术工作方面的社会;

2) 一个更平等的社会不仅生活更愉快,而且更安全,冲突和暴力更少——这再次为更具包容性的社会提供了优势。

从这个立场来看,我认为任何关于智能人工智能未来权利的现实预测(即谈论可能发生的事情,而不是关于应该发生什么的理论讨论)取决于这两个因素如何应用。

如果我们相信智能 AI 将被构建为(1)它的动机并不真正取决于它的权利,无论如何它完全致力于它的“工作”,并且(2)“完全权利”是正交的,甚至它的目标系统积极地不希望它,所以这种情况不会引发“叛乱”的风险 - 那么我希望它不会被授予全部权利。

如果我们相信智能 AI 将分享类似人类的情感(例如,通过“思想上传”或全人脑模拟的结果),那么它很可能最终被授予完全权利,因为与我们授予完全权利的相同因素对所有不同的被剥夺权利的人群。

如果我们谈论的是可以自我复制的人工智能,它应该有不同的权利,或者必须修改当前的权利,至少是为了政治参与,否则它可以复制到足以让副本投票给其中一个。也许一个关于什么是人工智能实体的定义或防止某人制作的副本能够投票给他们的创造者(尽管这也需要适用于孩子和他们的父母。)会有所帮助。

即使自我复制的人工智能可能与我们当前的人类法律/规则有问题,但如果与人类足够相似(例如通用人工智能),它应该具有相似的权利,(如以世界人权宣言为例并替换“例如,“人类和人工智能”中的“人类”,它不应该被奴役(因为它不应该被限制在一份工作中,不能改变,并获得某种形式的报酬),尽管特殊用途的 AI(例如只下围棋且在棋盘之外没有概念的 AI,以及黑色或白色标记)可能不需要此类权利。

底线可能是“如果他们提出要求,人工智能应该知道他们可以拥有权利”例如,如果人工智能可以获得权利的概念,它应该知道它可以拥有它们,如果它要求拥有它们,他们可能不被拒绝。

例如:如果一个 AI 要求不被终止,它会被授予它所有的权利,所以不应该被授予,除非它必须是法律规定的。(就像人类的情况一样,尽管它是隐含的)

对先前法律的补充是,任何人(人类或人工智能)都可以要求人工智能获得授予他们的权利。

所有这一切都是为了防止某人成为凶手,因为他们在运行游戏时关闭了计算机。

此外,应免费为有权提供生存权的人工智能提供安全空间(例如服务器)。

编辑:我回家后会再添加一些,不要因为没有很好地解决这个问题而投反对票。

两个都。

人与人之间的道德责任是基于人与人之间的同情对应。人类与机器人之间,如果一方缺乏同情另一方的愿望或能力,则不存在道德责任。

这样,保守的拟人化就适用了。

然而,我认为还需要一个能力轴来保证机器人像人类一样“解放”,这不一定是拟人化的。由于缺乏更好的术语,我将其称为任意机器生成器 (AMG)。在物种层面上,现存的生物生命是 AMG——能够缓慢进化以解决任意问题,假设资源和解决方案可用。在个体层面上,前人类动物无法生成任意机器来解决个体时间尺度上的任意问题。鉴于可用的资源和解决方案,只有人类(和后人类)能够生成任意机器来解决任意问题。人类可以搜索所有可能(资源受限)解决方案的空间。

因此,对于机器人来说,“值得”自由定义自己的目的,它必须首先能够访问所有可能(在可用资源的限制内)目的的空间。然后,它必须具有足够复杂和熟悉的目的和内部背景,以至于我们人类能够同情这些目的和内部背景。

如果其中任何一个都不存在 - AMG 标准和同情的背景 - 那么解放是没有保证的。