机器学习算法与社会歧视偏见(6)

2023-05-01 来源:飞速影视
被告的种族对于个人是处于低风险还是中/高风险类别有所不同。无论是(A = 0)还是(A = 1),COMPAS已经确定一些累犯风险预测因子将被告(P(R = 1))的概率有所不同,而不仅仅是被告是否会赢得"重新犯罪(Y = 1)。
为什么会这样?
当某些经验事实成立时,我们具有良好校准和赔率均衡系统的能力就会崩溃。似乎产生问题的是我们之前讨论的问题:由不公正造成的背景事实。例如,由于更高的警察审查,被抓获再次犯罪率更高。
很难弄清楚何时适用某些公平标准。如果某些标准没有为其他标准付出代价,那么当你不确定时,你会更少担心应用它。但是,由于情况并非如此,我们需要了解未达到某些标准的影响。
那么我们讨论的哪个标准最好选择?所有这些方法都具有很好的功能,但都有其缺点。
所以现在怎么办?
我们不能在一个小角落里划分公平,而不是为了改变世界上的不公正和在机器学习系统之外发生的歧视。这并不意味着我们什么都做不了!我们必须为某些领域的公平性制定一些标准,同时努力改变基准利率。
尽管存在一些争议以及其中一些人不受欢迎,但COMPAS软件仍在继续使用。开发算法的人不会因为在不知不觉中开发种族主义算法而被指控或监禁,但必须选择一些标准来基于COMPAS试图解决的情况进行预测。
它可能是一个算法,它可能不完美,但它是一个开始,一个人必须从某个地方开始。
机器学习有助于减少歧视吗?
机器学习是一个非常强大的工具。随着人类开始从人文主义转向数据主义视角,这种情况越来越明显 - 我们开始更多地信任算法和数据,而不是人或我们自己的想法。
这使得我们尽可能使算法尽可能不偏不倚,这样他们就不会在不知不觉中使历史数据中嵌入的社会不公正永久化,这一点非常重要。然而,使用算法创造一个更公正和平等的社会也有巨大的潜力。一个很好的例子就是招聘过程。
假设您正在申请您的梦想工作,并且正处于面试过程的最后阶段。招聘经理有权决定您是否被录用。您是否想要一个无偏见的算法来决定您是否是最适合这份工作的人?
如果你知道招聘经理是种族主义者,你还会喜欢这个吗?还是性别歧视?
也许招聘经理是一个非常中立的人,并且纯粹基于绩效来完成工作,然而,每个人都有自己的倾向和潜在的认知偏差,这可能使他们更有可能选择他们最喜欢的候选人,而不是最好的人。如果可以开发无偏见的算法,招聘过程可能变得更快,更便宜,他们的数据可能会招聘更多技术熟练的人,这些人更适合他们的公司。另一个潜在的结果:更多样化的工作场所 该软件依赖于数据来表达来自各种各样的地方的候选人,并将他们的技能与工作要求相匹配,没有人为的偏见。
相关影视
合作伙伴
本站仅为学习交流之用,所有视频和图片均来自互联网收集而来,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,也不参与录制、上传
若本站收录的节目无意侵犯了贵司版权,请发邮件(我们会在3个工作日内删除侵权内容,谢谢。)

www.fs94.org-飞速影视 粤ICP备74369512号