为什么算法的公平性令人难以捉摸?
2023-05-01 来源:飞速影视
算法公平性,从根本上来讲,是一个社会道德问题。
作者 | Amber Cazzell
译者 | 苏本如,责编 | Elle
以下为译文:
2016年,谷歌照片将两名非裔美国人的照片归类为“大猩猩”。两年后,谷歌除了从分类数据库中将 “大猩猩”一词删除外,没有做任何更多的事情。数据显示,亚马逊曾在2016年,不成比例地向欧美消费者提供了一天的免费送货服务。在佛罗里达州,根据累犯的风险推荐拘留和假释决定的算法在非裔美国人中显示出较高的错误率 ,因此非裔美国人更可能被错误地推荐拘留,而这些人实际上可能不会再继续犯罪。当从一种带有“性别中性”代词的语言,翻译成带有“非性别中性”代词的语言时,谷歌的word2vec神经网络在翻译时注入了一些性别类型,当与“医生”(或“老板”、“金融家”等)一起使用时,代词变成“他”,而当与“护士”(或“家庭主妇”或“保姆”等)一起使用时,代词就变成了“她”。
这些问题是由一系列原因引起的。有些是潜在的社会根源;如果你在一个有偏见的人创建的数据模型上训练机器学习算法,你会得到一个有偏见的算法。有些只是统计性偏差;假如你要训练一种机器学习算法来找到最适合整体人口的方法,但是如果少数群体在某种程度上是不同的,那么他们的分类或推荐就必然会有较差的适合性。有些是两者的结合:有偏见的人会导致有偏见的算法,这些算法提出的建议加强了不合理的分类(例如,对贫困社区更严厉的监管会导致这些社区有更多的犯罪报告。而更多的犯罪报告又会触发警务分析,建议在这些社区部署更多的警察,你看!这样你就得到了一个讨厌的反馈循环)。问题的根源在于根本不知道如何使算法做到公平。针对这方面,有关算法公平性的对话已经成为社会道德的一面放大镜。而关于如何定义和衡量算法公平的争论反映了今天正在进行的更广泛的道德对话。
本站仅为学习交流之用,所有视频和图片均来自互联网收集而来,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,也不参与录制、上传
若本站收录的节目无意侵犯了贵司版权,请发邮件(我们会在3个工作日内删除侵权内容,谢谢。)
www.fs94.org-飞速影视 粤ICP备74369512号