学者谈算法歧视认定标准:大数据杀熟造成差别对待不必然构成歧视(7)
2023-05-01 来源:飞速影视
个性化决策模式同样属于区分决策模式,所谓的“个性化”,只不过是在信息不对称和算法隐蔽性的双重作用下,用于“包装”区分决策的粉饰之辞,其实际上仍是通过分类模型实施的精致差别对待。不同的是,在个性化模式下,算法区分事由及由此划分出的群体类型复杂精细且保持动态,算法控制者将用户划入微分类中,具体决策也在对应的微分类中灵活变动,由此营造出用户被当作独特个体对待的假象。
此外,分类正确与否并不影响歧视的构成。算法区分决策模式并不追求分类的真实性和准确性,相反,其是以分类的高容错率为代价,换取决策的高效简化。错误识别用户特点并将其划入错误群体的情形,在算法决策中并不鲜见,如将居住于贫困地区的富人识别为穷人[7](P9)。区分的正确与否并不影响歧视的成立,用户被错误区分并因此遭受不合理的差别对待,亦构成歧视。
2.突破“区分事由法定”。在传统歧视中,区分事由主要包括性别、种族、民族、宗教信仰等。传统反歧视规制要求区分事由必须是受法律保护的个人特征,个人因法定事由以外的特征受到差别对待的,则很难被认定为歧视[8](P775)。然而,算法歧视的认定应当摒弃“区分事由法定”的限制。原因在于,伪中立性的代理标签(如以身高、体重代替性别,以清真食品的消费记录代替宗教,以邮政编码代替民族),以及算法自动区分决策背后存在大量潜在、隐蔽且难以预知的区分事由,“区分事由法定”将导致诸多算法歧视现象游离于法律规制之外。因此,有必要突破“区分事由法定”的限制,保持区分事由范畴的灵活性和开放性。
(二)结果要件:差别性不利后果
算法歧视的具体认定,还以用户遭受差别不利对待为结果要件:一方面,算法区分决策的结果须同时具有不利性和差别性;另一方面,此种差别不利后果无须达到社会排斥程度。
1.区分对待结果的不利性。区分对待结果的不利性即“利益的应得而未得”,表现为用户应当获得的利益被剥夺或克减,前者如用户应当取得信贷资格而未取得,后者如用户获批的信贷额度低于其应当取得的获批额度。
值得注意的是,不利后果不限于现实利益分配的应得而未得。在评分算法中,不利评分尽管不属于直接的利益分配,但若以评分结果为资源配置的直接依据,则评分的不利与利益分配的不利具有一致性,前者亦应被纳入不利后果的范畴。
2.区分对待结果的差别性。区分对待结果的差别性是指,不利后果必须是相对于用户的“应得”而言的,“不利”是“相对的不利”。差别性要件要求用户主张受到算法歧视时,证明不利后果的差别性。提供对照是最直接的证明方法,用户提供满足以下条件的对照即可证明其受到差别的不利对待:(1)在所涉区分事由上与他人有不同特征;(2)在其他与决策结果相关的事由上,与他人相似或者一致;(3)他人取得更有利的分配结果。然而,算法歧视中,由于个性化策略、复杂隐蔽的区分事由、用户之间存在的信息阻隔等多种原因,用户寻找对照的难度大,面临举证难题。因此,有必要扩充对照范围。一种可行的方案是,从横向对照向纵向对照扩充,即可以用户自身过往经历作为对照,证明其因某项事由发生改变,而遭受差别不利对待。纵向对照在我国传统反歧视实践中已有应用,如在“卢某与深圳市兆新能源股份有限公司一般人格权纠纷案”(广东省深圳市罗湖区人民法院[2020]粤0303民初26265号民事判决书)中,原告主张其本已通过入职面试,但被告在得知其携带某种病毒后又拒绝录用,构成歧视,法院对此予以支持。
本站仅为学习交流之用,所有视频和图片均来自互联网收集而来,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,也不参与录制、上传
若本站收录的节目无意侵犯了贵司版权,请发邮件(我们会在3个工作日内删除侵权内容,谢谢。)
www.fs94.org-飞速影视 粤ICP备74369512号