女性的劣势:因为她们是谁,或者她们做什么?

女性经常发现自己在软件开发领域处于非常不利的地位,尤其是在开源领域。在最近发表在EPJ数据科学、奥索里亚·瓦萨赫利和巴拉兹·韦德里斯认为这种劣势源于性别行为而不是绝对的歧视:妇女处于不利地位是因为她们的所作所为,而不是因为她们是谁。

这是一篇最初发表的文章在SpringerOpen博客上.

妇女在高科技部门处于边缘地位,没有明显的改善趋势。随着妇女公开反对不公正,越来越清楚的是,她们处于不利地位的根源可能比对她们的绝对歧视更深:不是她们是谁,而是她们做了什么。

最近对他提起的诉讼谷歌声称该公司没有充分的理由将女性归类为“前端”开发商,阻碍了她们获得通常男性“后端”开发商享受的更高报酬和更快的促销。歧视可能包含在活动类别中,也可能包含在进入这些类别的机会中。

与此同时,公司急需人才,并采取措施消除可能存在的偏见,例如,为筛选申请人制定人工智能(AI)解决方案。尽管这种方法消除了人力资源官员的偏见,但它也可能适得其反,因为它了解了女性简历与男性简历的所有细微差别,即使是在相同的专业领域。人工智能招聘亚马逊开发的工具在学习了这些模式后,最终拒绝了所有女性申请者。

要理解性别不平等,需要将研究重点转移到性别行为模式

即使有人将科技公司中女性的比例从一天增加到50%,这项努力也会失败不会自动消除所有不平等.传统上,我们把性别歧视理解为对妇女的绝对歧视;然而,正如大多数性别研究所表明的那样,要理解性别不平等,需要将重点转移到性别化的行为模式上。

歧视往往针对妇女(或男子)特有的活动,而不是个人的性别类别。担任领导角色的女性通常被期望遵循男性的行为特征,就像从事女性职业的男性具有类似女性的行为特征一样。即使一家科技公司从明天开始雇佣所有必要的员工,让50%的女性加入工作队伍,这些女性也很可能不会像男性同事那样有同样的成功机会。事实上,他们更有可能在一年内离开公司和行业。

即使一家科技公司从明天开始雇佣所有必要的员工,让50%的女性加入工作队伍,这些女性也很可能不会像男性同事那样有同样的成功机会。
图片由皮克斯湾的Gerd Altmann拍摄

在我们最近发表在EPJ数据科学,我们分析了大量开源软件开发人员的数据集回答这个问题:女性处于不利地位是因为她们是谁,还是因为她们的所作所为?通过使用GitHub.com网站上用户的整个职业生涯数据,我们开发了一个模型来捕捉性别化的行为模式:在给定的行为中成为女性的概率。

性别化行为是开源软件开发中一个重要的不利因素

我们的措施考虑了个人原则上可以控制的变量,如专业专业化(如数据科学或前端开发)或被跟踪个人的性别,但我们不考虑跟踪该人的人。当然,我们敏锐地意识到,女性可能无法自由选择自己的活动,而是可以被引导到预期的、社会可接受的(通常是男性多数可接受的)专业领域。

我们发现,性别化行为是开源软件开发中一个重要的不利因素。我们的模型显示了对女性典型行为的负面影响,对分类歧视的支持也很弱:大约85%的女性在成功中的劣势来自于她们所做的,只有15%的劣势来自于她们是谁。

一项重要的发现是,女性典型行为所带来的不利因素并非女性独有:如果男性选择女性特有的专业和行为,他们同样会受到伤害。更重要的是,我们发现性别不明的用户在这方面同样处于不利地位。在一个在线平台上隐藏你的性别并没有帮助,因为不利因素主要来自于活动的性别属性。

我们的研究结果对STEM和其他领域两性不平等的政策和干预具有重要影响。在短期内,试图为女性设定更高的配额将无法解决与性别行为相关的不平等因素。我们只能希望,女性比例的增加最终将消除与性别典型行为相关的显著不平等。较高比例的女性可能会质疑陈规定型观念。我们将在传统的男性行为中看到女性的成功故事,最终公司和社区将学会从专业领域中去除男性气质——女性气质。

随着人工智能系统在人力资源管理中的应用不断进步,处于不利地位的性别行为的高度显著性意味着算法歧视的风险增加。算法可以被用来从决策中排除明显的性别信息,但它们可以使基于行为典型性的歧视永久化。很难追究这些算法的责任,因为推动不平等的特定行为专业化可能会不断变化。今天,活动人士的目标是谷歌的前端/后端二分法,但明天他们可能需要针对D3和Hadoop。

在协会主页上查看最新帖子金博宝188app网站

评论