有哪些技术可以防止人工智能系统出现偏差?

人工智能 机器学习 数据集 社会的 人工智能安全 算法偏差
2021-11-07 00:39:21

我最近阅读了一篇关于人工智能如何在应用于有偏见的数据集时复制人类刻板印象的文章。

在人工智能(特别是机器学习)系统中防止偏见(和刻板印象)的技术示例有哪些?

2个回答

重要的是要注意,归根结底,我们目前在 ML 研究中使用的统计方法就是:统计方法。因此,当他们表现出一些“不良行为”时,并不是因为统计方法有问题,而是因为我们提供给他们的数据。但是,如果我们提供给他们的数据是“真实且未经过滤的”,那么它可能会显示出一些关于我们的信息。

从认知科学的角度来看,产生刻板印象的启发式和偏见可能也是使我们成为强大代理人的原因(请注意类别和刻板印象之间的相似性),因此,至少目前尚不清楚我们如何可以将期望的行为与不期望的行为区分开来。

要结合上面的积分模式,我们似乎只能:

  1. 通过手动管理数据或通过我们尚不知道的某些指标来删除“不良内容”

  2. 接受我们的方法会产生“像我们一样糟糕”的人工智能,因为我们就是这样,让它在知道它有时可能会产生不良行为的情况下运行。

除非我们有一些疯狂的新心理理论可以开始更严格地分析这一点,否则似乎没有明确的解决方案。

统计心理学领域提供了许多方法来消除数据集中的偏差,或者更确切地说,收集具有最小未知偏差的数据集。这将是程序员的责任。从数据集中学习的 AI 将无法在这些数据集中发现偏差。