人文主义是否对有感觉的通用人工智能给予道德考虑?

人工智能 哲学 伦理
2021-11-15 20:29:20

人文主义的一些表述已经对有感觉的非人类动物给予了道德考虑(例如https://humanists.international/what-is-humanism/)。人文主义是否也延伸到授予 AGI 的权利,他们应该变得有知觉吗?

Sentientism 是一种密切相关的哲学,它使这一点变得明确https://en.wikipedia.org/wiki/Sentientism

1个回答

人文主义是否也延伸到授予 AGI 的权利,他们应该变得有知觉吗?

我认为这将基于对 AGI 的理解,将自我认同的人文主义者分成几个不同的群体。

您链接的首页包括“以生物的福利和满足为目标”,其中没有明确包括非生物的有情事物。然而,人文主义哲学自然延伸到基于推理和科学证据的权利和保护授予任何可以被认为需要它们的东西。

最大的问题是:

  • 识别和测量感觉。

  • 将道德价值附加到发生在人工实体上的事件上,而在这些事件中,痛苦、压力、幸福、满足感等主观衡量标准可能不相关。

例如,这些测量问题已经导致对养殖动物的道德立场存在很大差异。这些生物与人类有足够的共同点,即使我们不完全了解它们的主观体验的性质,也可以在科学研究的一些支持下进行推断。例如,我们可以测量一个生物是否承受压力或疼痛,并做出与人类相似的反应,即使我们主观上不理解这意味着什么(成为这样一个动物的感觉),奥卡姆剃刀和可以论证预防原则:

  • 奥卡姆剃刀最简单的解释是,如果动物基于相同的细胞结构,具有相同的大脑区域来体验疼痛和奖励,使用相同的压力荷尔蒙等,那么它的主观体验可能在某种程度上与人类相当。这使我们能够将同理心应用于动物的情况,并猜测这样做并非 100% 不准确。

  • 预防原则不人道地对待有情生物的后果在道德上比人道对待无情生物的浪费更糟糕(前提是这样做不会对其他事物造成过度痛苦)。因此,在缺乏精确知识的情况下,如果存在任何不确定性,仍然有强烈的理性伦理论据来扩展权利和人道待遇。

当谈到人工创造的实体时,我们失去了奥卡姆剃刀的第一个论点,只有更好地理解感知的真正含义以及我们应该重视它的哪些部分,才能将其取回。在这里,我们需要一个比动物更坚定的理论,因为我们的构造与人造机器的构造之间几乎没有共同之处。此外,正如许多不同种类的有机体表现出不同数量的明显智力和可能的感知能力一样,将有不同版本的 AGI,可能从专门构建的非狭义 AI 开始,这些 AI 结合了实际有用的特征,并且他们似乎智能(解析人类语音并做出适当的响应,Google Home、Alexa、Siri 已经在一定程度上做到了这一点)对广泛的任务组合有一些常识性的理解。这些东西在不久的将来,大多数从事它们工作的开发人员不会认为它们是有感知的——然而,它们将被设计成好像它们一样,因为这使它们变得实用和可用,这反过来又会使争论变得更加困难奥卡姆剃刀由于行为相似。

我们仍然保留第二个论点,但在处理人工实体时,由于不理解什么是人道不人道的类比而感到困惑。关闭下一个 2 或 3 代 Siri 助手的运行实例不太可能有人会遇到问题 - 但在什么时候这会变成故意使有知觉的人丧失能力,甚至如果系统的设计是否重要被打开和关闭,并且没有特别希望处于任何一种状态?

总而言之,人文主义哲学可以扩展到涵盖人工智能的福利,但在实践中是否能做到这一点还很不清楚。在我们拥有更完整的 AGI 理论模型或实际工作设备之前,现在考虑它还为时过早。大多数辩论将基于 AGI 的想象品质,任何两个讨论这个问题的人都可能从关于这些是什么的不同假设开始。