机器学习算法与社会歧视偏见(3)

2023-05-01 来源:飞速影视
所有这些属性都可以用作我们的机器学习算法中的特征,因此我们的算法有可能在这些属性的基础上进行区分。一些常见的例子是面部识别,累犯(如前所述)和招聘。我们可以做些什么来帮助解决这个问题?
训练数据中的歧视性偏见
当分类和决策基于不准确的信息时,歧视会影响社会商品(例如,认为7英尺以上的每个人都是不好的保姆)。这些想法经常被人类偏见所延续,并嵌入用于训练算法的数据中。
在这种情况下,机器学习算法不会减轻人的偏差。事实上,它们是在所制作的分类中复制的。为什么会这样?像Northpointe软件那样的累犯分数是基于先前的逮捕,第一次警察联系的年龄、父母的监禁记录。
这些信息是由世界上的偏见(例如来自文化价值观和民族主义)和更普遍的不公正(例如种族偏见)所塑造的。
这种偏见也存在于自然语言处理中,其关注于文本数据。这方面的一个很好的例子是题为"人是计算机程序员,因为女人是家庭主妇?Debiasing Word Embeddings",它显示了软件向量中自动生成的类比,例如男性→计算机程序员,女性→家庭主妇。这些反映了原始文本中的性别歧视。
更一般地说,这些偏见来源通常来自:
过度抽样和欠抽样 歪斜的样品 特征选择/有限特征 代理/冗余编码 世界上的偏见和不公正那么我们如何消除这些偏见呢?机器学习算法可以使歧视永久化,因为它们是针对有偏见的数据进行训练的。解决方案是识别或生成无偏的数据集,从中可以得出准确的概括。
消除偏见
种族,性别和社会经济阶层等特征决定了我们与某些绩效任务的结果相关的其他特征。这些都是受保护的属性,但它们仍然与某些性能任务相关 - 而性能任务则是假定的社交产品。例如:
白人家庭的平均财富是黑人家庭平均财富的七倍。 财富与您是否可以偿还贷款有关。 财富的差异取决于历史和现在的不公正。机器学习本质上是历史的。为了有效打击歧视,我们需要改变这些模式。然而,机器学习强化了这些模式。因此,机器学习可能是问题的一部分。
"即使历史是一个向正义倾斜的弧线,机器学习也不会屈服。"
那么,我们该何去何从?我们注定要有种族主义和性别歧视的算法吗?
即使我们优化准确性,机器学习算法也可能使歧视永久存在,即使我们使用无偏见的数据集进行工作并且具有考虑社会商品的性能任务。我们还能做些什么?
相关影视
合作伙伴
本站仅为学习交流之用,所有视频和图片均来自互联网收集而来,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,也不参与录制、上传
若本站收录的节目无意侵犯了贵司版权,请发邮件(我们会在3个工作日内删除侵权内容,谢谢。)

www.fs94.org-飞速影视 粤ICP备74369512号