为什么算法的公平性令人难以捉摸?(4)

2023-05-01 来源:飞速影视

为什么算法的公平性令人难以捉摸?


算法评分对不同群组的成员应该代表相同的东西。实现算法公平性的第三种方法是确保算法评分对所有受保护的类别都意味着相等的东西(例如,在其保险申请中获得风险评分X的女性,应该与在其保险申请中也获得风险评分X的男性有相接近的保险支出)。从表面上看,这种做法似乎达到了我们想要的目的,似乎是公平的。问题是,在存在故意歧视行为的情况下,它无法保证公平,因此,根据公平的这一定义对算法进行监管仍将为模糊的歧视性待遇留下空间。至少存在两种可能发生的方式:
1. 替代物(如不同种族的邮政编码)仍然可以用于不公平地设定人群评分使其高于或低于算法的截止阈值。例如,贷款违约风险较高的个人可以与贷款违约风险较低的个人配对,这样受保护类别的风险评分可以随意推高或低于临界阈值。这本质上可以归结为触碰了算法红线。

为什么算法的公平性令人难以捉摸?


2. 如上所述,不同的群组将有不同的统计风险曲线。如果量化评分在群组内离散化(例如,用“高”、“中”或“低”标签代替个人的准确评分),真实风险曲线上的这些差异可以掩盖不同的群体界限,同时保持一个虚假的外表,被贴上“高”风险标签的个人再次犯罪、违约,不同的受保护类别((种族、性别等)以相似的比率发生车祸。例如,在上图中,基于群组内部的百分比给一个人分配一个“高”、“中”或“低”风险标签将有效地产生不同的群组截止阈值,同时潜在地保持每个受保护群组在那些标记为“高”风险时的算法表现相同。
相关影视
合作伙伴
本站仅为学习交流之用,所有视频和图片均来自互联网收集而来,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,也不参与录制、上传
若本站收录的节目无意侵犯了贵司版权,请发邮件(我们会在3个工作日内删除侵权内容,谢谢。)

www.fs94.org-飞速影视 粤ICP备74369512号