为什么道德没有更多地融入当前的人工智能系统?

人工智能 哲学 伦理 社会的 执行
2021-11-08 23:26:42

我是计算机科学专业的博士生,目前正在为机器伦理学(一个结合哲学和人工智能的多学科领域,着眼于创建明确的伦理程序或代理)中的应用程序创建一个最先进的概述。似乎该领域主要包含理论论据,并且实施相对较少,尽管有很多人具有该领域的技术背景。

我知道,因为涉及道德,所以没有基本事实,而且由于它是哲学的一部分,人们可能会在争论应该实施哪种类型的道德以及如何做到最好时迷失方向。然而,在计算机科学中,通常甚至尝试一个简单的实现来展示您的方法的可能性或局限性。

在明确实施人工智能伦理并进行试验方面做得很少的可能原因是什么?

4个回答

这必然是一个高层次的答案,而且是高度投机的,但我一直在思考这个问题,以下是我的想法:

  • 实施道德算法需要哲学的数学基础,因为计算机是差异引擎

在罗素和怀特黑德著名的失败以及哥德尔的不完备定理之后,这似乎是有问题的。

  • 人工智能是一个高度应用的领域,尤其是在今天不断验证深度学习的情况下,没有公司愿意接近道德问题,除非他们被迫

因此,您会在自动驾驶汽车中看到它,因为工程师别无选择,只能解决这个问题。相比之下,我认为您不会看到很多算法股票交易公司,他们的业务是帕累托效率,担心金融投机的道德或社会影响。(“闪崩”的解决方案似乎是暂停交易的规则,而不是解决高频算法交易的社会价值。)一个更明显的例子是社交媒体公司忽视了极端的信息滥用(虚假信息和错误信息)被张贴在他们的网站上,以无知为由,这是高度怀疑的,因为信息滥用产生的活动会对他们的底线产生积极影响。

  • 应用领域往往主要受利润驱动

公司的主要指令是向投资者返还利润。当罚款和处罚预计低于非法活动的利润时,公司违法的情况并不少见。(商业中有道德的概念,但总体而言,文化似乎根据他们赚了多少钱来判断人和公司,而不考虑手段。)

  • 在销售产品所必需的领域正在探索机器伦理的实施,但在其他地方,这在很大程度上仍然是假设性的

如果超级智能进化并消灭人类(正如一些具有卓越数学技能的非常聪明的人警告我们的那样),我的感觉是它将成为自然的函数,这些算法的无限制进化是由于经济驱动力专注于超-金融投机和自主战争等行业的党派自动机。从本质上讲,不惜一切代价追逐利润,而不考虑影响。

我觉得为什么 AI/ML 技术的道德实施方式很少有问题的一部分,仅仅是因为不需要或正确应用理论框架。

我的意思是,没有实质性的方法可以将这种理解应用于无法以有意义的方式交互的算法和模型。我们有如此庞大的人工智能安全/伦理理论框架,因为它非常重要。在创建强大的 AI之前,我们需要制定安全的指导方针来实施它。

一些非常有针对性的论文已经开始缩小创建道德/安全人工智能系统的问题。查看AI 安全中的具体问题

通过模仿的方法,可以将最合适的行为整合到人工智能中。当伦理立场发生变化时,人工智能可以被重塑。它用于意识形态目的或收集信息。目前尚不清楚机器人是什么。

我们可以将误差模型考虑在内。识别神经网络性能之间的偏差和方差可能是第一步。然后我们可以讨论是否允许这样的表现。据我们所知,实践伦理学需要经验和实地研究。我们不能简单地用基本原理和论文来确定学习机器的行为是否错误。它可以进一步分为事故、错误,甚至是开发人员创建的错误。