学者谈算法歧视认定标准:大数据杀熟造成差别对待不必然构成歧视(10)
2023-05-01 来源:飞速影视
须明确的是,本文认为,算法歧视不以算法控制者是否具有主观过错为要件,原因主要有两点:一是算法决策的隐蔽性特征,导致过错认定客观上变得十分困难;二是算法控制者为算法歧视风险的制造者、控制者和获益者,理应分担歧视风险。从域外立法来看,英国的反歧视规制不以主观过错为要件[12](P619);而美国反歧视制度也明显出现主观要件式微的趋势,一方面,受到规制的歧视类型从差别对待扩张至差别性影响,后者不再以主观故意为要件;另一方面,差别对待类型中,主观故意要件的认定也趋于客观化[9](P372-373)。
至此,算法歧视以横向权力关系存在为前提,并须同时满足行为要件和结果要件。三个要件及其相互关系简要总结于图1。
图1 算法歧视的认定过程示意图
结合图1,笔者还须作两点说明:一是,横向权力关系为算法歧视发生的首要要件,若不存在横向权力关系,即使用户遭受差别不利对待,也不构成算法歧视。二是,在横向权力关系形成后,若不满足区分决策要件抑或差别不利后果要件,亦不构成算法歧视,但算法控制本身是否违法则未有定论,当然,典型的违法情形除外,如滥用算法权力侵犯言论自由、实施欺诈等。
四、常见算法决策类型中的算法歧视认定
在有关算法歧视的讨论中,常被列举的算法决策类型包括:单纯呈现歧视性内容的搜索算法或人机对话、“大数据杀熟”、评分算法,下文将结合构成要件对这几种算法决策是否构成算法歧视进行分析。
(一)类型一:搜索算法和人机对话对歧视的镜像呈现
有学者将搜索算法单纯呈现已有偏见和歧视,以及人机对话过程中人工智能“说出”歧视性言辞等现象认定为算法歧视。本文认为,这是典型的算法歧视认定泛化[13](P141)。应当认为,上述两种算法决策只是对已有歧视和偏见的镜像呈现,其因欠缺区分决策的行为要件,不构成算法歧视。从算法应用模式来看,搜索结果的产生由爬虫技术、索引技术和查询展现技术完成,人机对话内容则是通过用户输入、自然语言理解、对话管理和自然语言的生成与输出产生,二者均未涉及区分模型的应用,不存在对用户的区分,更不存在区分后的差别对待。搜索结果、对话内容中的歧视内容源于污染数据,而数据中的偏见又可追溯至社会现实中的已有偏见。例如,某国执法机关受社会种族偏见的影响,更倾向于逮捕有色人种,算法基于上述社会现实得出“有色人种的犯罪风险更高”的分析结果,只是对该国社会种族偏见的镜像呈现,不构成算法歧视。
本站仅为学习交流之用,所有视频和图片均来自互联网收集而来,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,也不参与录制、上传
若本站收录的节目无意侵犯了贵司版权,请发邮件(我们会在3个工作日内删除侵权内容,谢谢。)
www.fs94.org-飞速影视 粤ICP备74369512号