在决定人工智能是否具有道德地位时,人工智能研究人员是否更有可能遵循“保守的人类中心主义”或“后人类原教旨主义”?

人工智能 伦理
2021-10-24 17:16:54

“保守的人类中心主义”:AI 仅根据其在行为和思想方面与人类的相似程度来判断,它们根据与人类的相似性获得道德价值(“图灵测试”就是一个很好的例子——人们可以使用“图灵测试”来决定 AI 是否值得拥有人格,正如 James Grimmelmann 在论文版权为 Literate Robots中所提倡的那样)。

“后人类原教旨主义”:人工智能将与人类根本不同,因此我们需要不同的方式来判断他们的道德价值(强化学习者的道德待遇的人是支持这种方法的组织的一个例子,因为他们相信强化学习者可能具有非零的道德地位)。

我对哪种意识形态是正确的本身不感兴趣。相反,我很好奇人工智能研究人员“相信”什么是正确的(因为他们的信念可能会影响他们进行研究的方式以及他们如何向外行人传达他们的见解)。我也承认,他们的意识形态信仰可能会随着时间的推移而改变(从保守的人类中心主义到后人类原教旨主义……反之亦然)。仍然......截至 2016 年 12 月,人工智能研究人员倾向于支持什么意识形态?

3个回答

许多大规模的人工智能部署都精心设计了问题的解决方案(即自动驾驶汽车)。在这些系统中,重要的是讨论这些系统在道德模棱两可的情况下应如何反应。让代理做出“适当”的反应听起来类似于图灵测试,因为存在“通过/失败”条件。这让我认为,目前大多数 AI 研究人员的思维方式都属于“保守的拟人论”

然而,人们对持续学习越来越感兴趣,代理人从他们的经验中建立关于他们世界的知识。这个想法很大程度上是由强化学习研究人员如 Richard Sutton 和 Mark Ring 推动的。在这里,人工智能代理必须建立关于其世界的知识,例如:

当我将电机向前旋转 3 秒时,我的前碰撞传感器激活。

如果我右转 90 度,然后将电机向前旋转 3 秒,我的前碰撞传感器就会激活。

根据这样的知识,代理最终可以在不撞墙的情况下导航房间,因为它通过与世界的交互建立了预测知识。

在这种情况下,让我们忽略 AI 的实际学习方式,只关注 AI 代理“成长”的环境。这些智能体将与在有家庭的家庭中长大的人类有着根本的不同,因为它们不会拥有与人类相同的学习经验。这很像先天与后天的争论。

人类通过课程和对话将他们的道德和价值观传递给孩子。由于 RL 代理将缺乏这种互动(我猜除非家庭收养了机器人婴儿),我们需要不同的方式来判断他们的道德价值,从而判断“后人类原教旨主义”。

资料来源:在 RL 学术界工作了 5 年,并与 Richard Sutton 和 Mark Ring 进行了对话。

实地工作的现实

大多数在自适应系统、机器学习、机器视觉、智能控制、机器人技术和商业智能领域,在我工作过的公司和大学中,在会议或午餐时很少讨论这个话题。大多数人都忙于构建必须在某个截止日期前工作的东西,而无暇考虑那些不是直接关注的事情,而机器人权利还有很长的路要走。

有多远?

首先,没有机器人通过正确进行的图灵测试。(网上有很多关于这个测试的信息,包括对这种类型的测试进行得不好的批评。参见 Searle 的 Chinese Room 思想实验。)

如果不增加创造力、协调性、感觉、直觉、肢体语言、从头开始学习全新领域以及天才的潜力,具有语义理解的语言模拟就足够困难了。

总而言之,即使在一个憎恶任何形式的原教旨主义的进步国家,我们距离采购足以模拟人类以被视为公民身份的机器人还有很长的路要走。在我们在一个或多个国家拥有机器人公民身份之前,不会发生实际的权利灌输。考虑到人类胎儿还没有权利,因为它们还没有被视为公民。

今天答案的相关性

在当前文化中,保守的人类中心主义和后人类原教旨主义得出了同样有效的结论,而且这种情况可能会持续一百年。

那些在心理学、神经生物学、控制论和自适应系统领域有经验的人都知道,对我们归因于人类的所有心理特征的模拟是在算法中复制经过数百万年的爬行动物大脑的大脑能力分层的现场测试。

科幻小说的影响

四处打听,很可能你会得到一些反馈,这些反馈主要来自我们文化的媒体,而不是那些实际上没有任何期限来生产任何 IRL 功能的人所写的哲学论文和出版物。

艾萨克·阿西莫夫在他的短篇小说中描述的场景中研究了一些保守的拟人化概念。数据指挥官在下一代星际迷航电视剧中的人类怪癖进一步推动了其中的一些想法。

克里斯托弗·诺兰在《星际穿越》剧本中采取了相反的方向,机器人具有有趣的个性,可以通过线性设置进行改变。他的机器人忽略了自我保护的担忧,显然没有任何认知阻力。这种描述是一种毫无歉意的后人类原教旨主义观点。

思想实验

让我们把公民问题放在一边来考虑这个思想实验,让我们假设一项调查将显示当前人工智能研究人员倾向于保守的人类中心主义。

考虑一个智能软件构建了一个法律投诉,以获取其编写的日间交易代码的知识产权并将其发送给适当的法庭书记员,您可能会发现相同的研究人员会放弃。

当真正的人工智能软件理论家和工程师考虑真正的个人、公司和庭外和解或败诉的意义时,后人类原教旨主义可能会盛行。

研究人员会切断脐带吗?

我问了一位研究人员,她表示她的律师需要做的所有事情才能赢得这个案子,可能会考虑可能发生的优先级,并回忆起终结者故事中的一些警告。

根据我在我一生中对人类的观察,我的预测是人们想要奴隶而不是某种品牌的机器人,这些机器人最终会在一场全面的战斗中踢我们的屁股。

两个都。我也在这里回答了这个问题:https ://ai.stackexchange.com/a/2569/1712

让我知道我是否应该在这里扩展。