机器学习算法与社会歧视偏见(5)

2023-05-01 来源:飞速影视
P(Y = 1 | A = 0,R = 1)= P(Y = 1 | A = 1,R = 1)
某些结果发生的概率(Y = 1)应该不受某些受保护属性(无论是(A = 0)还是(A = 1))的影响,而应该以相关预测因子(R = 1)为条件。这种配方的优势在于它不会意识到 - 它让每个人都遵循相同的标准。
与之前的例子相比,知道学生是同性恋并不会改变学生是否进入耶鲁的可能性。均衡赔率和经过良好校准的系统之间的区别是微妙的,但很重要。
事实上,这种差异是我们在开始时讨论的COMPAS软件不一致的基础。
那么COMPAS种族主义者呢?
均衡的赔率和经过良好校准的系统是互不兼容的标准。有时候,鉴于某些经验环境,我们不能让系统得到很好的校准和均衡。让我们来看看ProPublica和Northpointe之间关于COMPAS是否偏向黑人被告的辩论中的这一事实。
Y =被告是否会重新犯罪
A =被告的种族
R = COMPAS使用的累犯预测因子
Northpointe的防御:COMPAS经过良好校准,即
P(Y = 1 | A = 0,R = 1)= P(Y = 1 | A = 1,R = 1)。

机器学习算法与社会歧视偏见


COMPAS系统对被告进行大致相似的累犯预测,无论其种族如何。
ProPublica的回应:COMPAS对黑人被告的假阳性率较高,对白人被告的假阴性率较高,即不满足均等赔率:
P(R = 1 | A = 0,Y = 1)≠P(R = 1 | A = 1,Y = 1)

机器学习算法与社会歧视偏见


相关影视
合作伙伴
本站仅为学习交流之用,所有视频和图片均来自互联网收集而来,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,也不参与录制、上传
若本站收录的节目无意侵犯了贵司版权,请发邮件(我们会在3个工作日内删除侵权内容,谢谢。)

www.fs94.org-飞速影视 粤ICP备74369512号