当在机器学习 (ML) 的背景下讨论这些概念时,我对“道德”和“偏见”之间的区别感到困惑。在我的理解中,ML 中的伦理问题与“偏见”几乎完全相同:例如,模型区分有色人种,这与说模型有偏见是一样的。简而言之,“道德始终是一个偏见,但偏见始终是一个道德问题并不一定是真的”。这是真的?
机器学习中道德与偏见的区别
据我所知,偏见一词与机器学习背景下的伦理无关。相反,它通常指的是偏差-方差权衡或模型的可学习参数,例如神经网络中的偏差。(请注意,在统计学中,该术语通常用于指代有偏估计量,它与偏差-方差-权衡相关但比其使用更普遍。)
相反,在与道德(又名公平)建立联系时,您最有可能以更一般的方式使用该术语或它在科学中的常用用法。(但重要的是要注意,这不是ML 中的偏见。)
然而,即使应用偏见的一般科学定义,它与 ML 中的伦理/公平的关系也是有限的:
假设您应用模型对椅子和桌子的图像进行分类。如果您的数据集包含 99.999% 的椅子,那么总是预测椅子的朴素分类器在准确度方面会表现得非常好。(旁注:让我们忽略“非常好”是特定于任务的事实,并且准确性可能不是这里的最佳指标)这个模型将非常偏向于该术语的一般含义的椅子。但是,我们不会将其视为道德或公平问题(除非您是桌子的忠实粉丝)。
现在让我们假设您有一个模型应用于自动驾驶汽车任务。可以想象这样一种情况,模型需要决定是跑过一组两人还是一组三人。模型必须做出的决定是一个伦理机器学习问题。(可能它实际上是一个人工智能问题,即也涉及人工智能的其他子领域,因为自动驾驶汽车通常应用来自多个人工智能领域的技术,而不仅仅是机器学习)显然,这是一个独立于任何偏见的伦理问题,即你可以在 ML 中具有伦理考虑,但不一定涉及偏见。
正如上述两个示例所示,您可以在没有偏见的情况下(在一般意义上)在 ML 中遇到道德问题,反之亦然。
我会说相反的情况是正确的:“偏见始终是一个道德问题,但道德问题始终是偏见并不一定是正确的”。
“偏见始终是一个道德问题”,因为就像您说的那样,例如,在招聘方面,模特可能会歧视有色人种。即使模型是正确的(这不太可能发生,如果发生这种情况显然是由混杂变量引起的),因为肤色而决定不雇用某人也是不道德的。更一般地说,我们不应该完全遗漏一群人。
“道德问题可能不是偏见”,因为有许多与机器学习相关的道德问题不涉及偏见。例如:
- 政府监控:政府使用与面部识别相结合的摄像头来跟踪某些感兴趣的人的活动和位置。
- 深度伪造视频:一个人的面部或身体已被数字化改造以使其看起来像其他人的视频,通常被恶意使用或传播虚假信息。(例如:https ://youtu.be/bE1KWpoX9Hk )