人类会伤害有意识或有感觉的人工智能吗?

人工智能 哲学 伦理 人工意识 知觉
2021-10-18 23:49:45

如果有意识的人工智能是可能的,那么知道自己在做什么的人也有可能折磨(或伤害)人工智能吗?这可以避免吗?如何?

这个问题涉及基于计算机的人工智能,而不是机器人,它们和人一样有意识(这是问题的假设)。这个问题想知道如何防止像非法下载一样难以追踪但在道德上更糟糕的犯罪行为。请注意,尽管大多数人都很好并且对机器人有同理心,但坏人总是存在的,因此依靠一般的良心是行不通的。

2个回答

文章Children Beating Up Robot Inspires New Escape Maneuver System是基于两篇研究论文,该论文是关于在日本商场进行的一项实验,该实验导致无人监督的儿童攻击机器人。您感兴趣的研究论文是Escaping from Children's Abuse of Social Robots

在该研究论文中,研究人员能够对机器人进行编程,使其遵循规划模拟,以减少儿童虐待的可能性。如果它检测到儿童,机器人会被编程为退回到一群成年人中(如果需要,他们可以管教孩子)。发生这种情况是因为研究人员发现只有孩子在殴打相关商场的机器人。

他们讨论了尝试其他选择:

在这项工作中,机器人防止虐待的策略是“逃跑”,即移动到不太可能发生虐待的位置。有人可能会问,为什么机器人无法克服虐待。在我们的初步试验中,我们尝试了几种方法,但我们发现机器人很难说服孩子不要虐待它。例如,我们在很多方面改变了机器人的措辞,使用了强烈的词语、情感或礼貌的表达方式,但都没有成功。一种部分成功的策略是机器人“身体”推动儿童。当它的路被挡住时,它会试图继续前进,表现得好像它会撞到孩子并强行通过(在人类操作员的仔细监控下)。我们观察到,孩子们起初接受了机器人的要求并服从了他们;但,很快他们就知道他们比机器人更强壮,所以如果他们推动他们就可以获胜,并且他们可以通过推动保险杠开关(为了安全而安装在机器人上)来阻止它。意识到这一点后,他们只是继续虐待行为。显然,拥有更强大的机器人会给安全和社会接受度带来问题,因此处理这种虐待情况仍然很困难。


但是,让我们进一步询问您的问题:

如果有意识的人工智能是可能的并且被广泛传播,那么对于一个知道自己在做什么的人来说,折磨人工智能不是很容易吗?

为什么你会认为这样的折磨是错误的?毕竟,有人可能会争辩说,如果你折磨它,这台机器不会真正“体验”到疼痛……所以那时折磨这台机器在道德上应该是可以的。它可能会像痛苦中一样做出反应,但是模拟诸如“处于痛苦中”之类的情绪状态的能力是否等同于实际处于那种情绪状态是值得怀疑看问题模拟情绪状态是否等同于实际体验情绪?有关此主题的更多讨论。

你可以提出这样的论点,但它不会真正在情感层面上起作用,因为大多数人会对机器产生同理心可能很难从逻辑上证明它的合理性(它可能基于人类从事人化的倾向),但我们能感受到这种同理心。正是这种同理心让你首先提出这个问题,让研究人员想出如何保护机器人不被殴打,让警察能够逮捕一名因殴打软银机器人而喝醉的日本男子,并让许多人成为人类对hitchBOT的破坏感到不安就是如何避免人工智能滥用——人类同理心。如果大多数人关心机器的福利,他们会优先阻止那些能够并愿意滥用机器的少数人。


编辑: OP 编辑​​了他的问题,以澄清他在谈论软件,而不是机器人。对于机器人,你可以依靠拟人化来产生某种程度的共鸣,但很难对原始代码行产生共鸣。

你不会停止滥用算法。坦率地说,由于算法不像我们,我们不会像机器人那样将同理心扩展到机器人身上。甚至聊天机器人也有点不确定。如果您可以让人们对代码行表示同情(可能通过对情感和智能进行令人信服的模拟),那么上述答案适用 - 人类将机器拟人化并提出对策。我们还没有达到那个水平,所以“停止人工智能滥用”将是一个低优先级。

尽管如此,一些故障保险可以被编程来限制滥用的损害,正如这个关于聊天机器人滥用的线程中所详述的那样——让机器人以一种无聊的方式做出反应,让施虐者感到无聊,然后转向下一个目标,回复施虐者在“斗智斗勇”中,甚至只是阻止施虐者使用该服务。

对于那些想要防止滥用而不是回应它的人来说,这些故障保险是冷酷的安慰。

此外......施虐者可以愉快地学习如何对人工智能进行编程,然后尽情施虐。没有什么可以阻止这种情况,任何阻止上述滥用的可能措施(例如监控每个人以确保他们不会对人工智能进行编程)可能会造成比它解决的更多的损害。

我建议你看看我们试图阻止人们虐待其他人的所有方法。这里没有道德灰色地带——每个人都清楚这是错误的。然而,每天都有数以百万计的人被谋杀、强奸和殴打。

当我们针对人类受害者解决这个问题时,得到的解决方案很可能也适用于 AI。