我的问题来自亚马逊最近的招聘丑闻,他们被指控在招聘过程中歧视女性。更多信息在这里:
亚马逊公司的机器学习专家发现了一个大问题:他们的新招聘引擎不喜欢女性。
该团队自 2014 年以来一直在构建计算机程序,以审查求职者的简历,旨在机械化寻找顶尖人才……
该公司的实验性招聘工具使用人工智能为求职者打分从 1 星到 5 星不等...
... 但是到 2015 年,该公司意识到其新系统并没有以性别中立的方式对软件开发人员职位和其他技术职位的候选人进行评级。
这是因为亚马逊的计算机模型经过培训,可以通过观察提交给公司的 10 年简历中的模式来审查申请人。大多数来自男性,这反映了男性在整个科技行业的主导地位。(有关科技领域性别细分的图表,请参见:此处)实际上,亚马逊的系统告诉自己,男性候选人更受欢迎。它会惩罚包含“女性”一词的简历,例如“女性国际象棋俱乐部队长”。据知情人士透露,它还下调了两所女子学院的毕业生等级。他们没有具体说明学校的名称。
亚马逊对这些程序进行了编辑,使它们对这些特定条款保持中立。但这并不能保证机器不会设计出其他可能被证明具有歧视性的候选人分类方式,知情人士说。
这家西雅图公司最终在去年初解散了该团队,因为高管们对该项目失去了希望
……公司的实验……提供了机器学习局限性的案例研究。
......计算机科学家,如在卡内基梅隆大学教授机器学习的 Nihar Shah 表示,还有很多工作要做。
“如何确保算法是公平的,如何确保算法是真正可解释和可解释的——这还很遥远,”他说。MASCULINE LANGUAGE
[亚马逊] 在亚马逊的爱丁堡工程中心成立了一个团队,该团队发展到大约十几个人。知情人士说,他们的目标是开发能够快速爬网并发现值得招聘的候选人的人工智能。
该小组创建了 500 个计算机模型,专注于特定的工作职能和位置。他们教每个人识别过去候选人简历中出现的大约 50,000 个术语。算法学会了对 IT 应聘者的共同技能(例如编写各种计算机代码的能力)赋予的重要性不高……
相反,该技术偏爱使用男性工程师简历中更常见的动词来描述自己的应聘者,例如“处决”和“被捕”,一位人士说。
假设我想建立一个统计模型来预测个人数据的一些输出,比如帮助招募新人的五星级排名。假设我也想避免性别歧视,作为一种道德约束。给定除了性别之外的两个严格相等的配置文件,模型的输出应该是相同的。
我应该使用性别(或与之相关的任何数据)作为输入并尝试纠正其影响,还是避免使用这些数据?
如何检查是否存在性别歧视?
对于具有统计学差异但出于道德原因我不想这样做的数据,我该如何纠正我的模型?