非确定性学习过程的伦理后果?

数据挖掘 模型选择 方法 伦理
2021-10-04 07:51:57

最先进的监督学习技术在构造上是非确定性的。模型的最终输出通常取决于学习过程的一些随机部分。(神经网络的随机权重初始化或梯度提升树的变量选择/分割)。这种现象可以通过将给定随机种子的预测与另一个种子的预测作图来观察:预测通常是相关的,但并不完全一致。

一般来说,这通常不是问题。当试图将绿色西红柿与红色西红柿分开时,只有分类器的整体性能很重要。个人预测并不重要,因为没有番茄会不高兴/会起诉你。然而,对于更高级的问题,更具体地说,那些与人(教育、工作、贷款申请......)由于非确定性学习过程而导致的个人分数差异可能会成为问题。基本上,有些人可能会根据给定的种子获得影响生活的结果,而如果您使用另一颗种子,则会得到相反的结果。这对我来说似乎不太公平或不道德。选择种子有点像手推车的问题......

除了可能用于减少这种“种子依赖性”(正则化/集成等)的技术之外,我会对与随机种子相关的输出差异的伦理方面感兴趣。但我找不到任何关于道德问题的资源。(我几乎找不到关于种子依赖主题的一些资源——我怀疑这种现象没有被广泛披露,因为它可能会阻止人们想要使用“人工智能”)。

在影响人们生活的模型的背景下,非确定性学习过程的伦理后果是否已正式化/评估?

0个回答
没有发现任何回复~