算法推荐的歧视与偏见(3)

2023-05-01 来源:飞速影视
此外,利益团体的资本嵌入,也是引发算法歧视的重要原因。2014年,美国白宫发布的大数据研究报告指出,由设计者造成的算法歧视可能是无意识的,也可能是利益团体对于弱势一方的蓄意剥削。技术神话之下用户对于数据的迷信,给予了资方用算法中立的外衣来操作舆论、控制受众的机会,“大数据杀熟”便是一种典型的价格歧视。商家通过大数据分析,为不同人群提供动态定价,以获得更大限度的消费者剩余,而对于被以高价供应的消费者群体而言,即是以更高的价格买了同等商品。而当广告商以貌似中立的特征描绘人群,而非以种族、性别、职业身份等归类人群时,这种操纵被掩饰得更隐蔽,消费者成了更加无力的反抗者。
算法歧视下窄化的个人选择与社会偏见
连带歧视概念的提出提示人们,以往看似“没用”的数据类型也成为了可利用的数据主体,数据收集的范围有进一步扩大的趋势。一方面,这意味着个体用户想要在互联网上寻求“隐身”的难度增加;而另外一方面,这种趋势意味着位于大数据边缘的群体更加难以被言说。以往被诉说的数据主体更加深刻地被诉说着,而被遗忘的数据主体仍然被遗忘着,连带歧视提示的是智能算法为数据富集群体和数据边缘人群的带来的不平等后果。
对于使用智能算法的公司来说,大部分时候,智能算法的偏差和失误所导致的损失都在可承受的范围之内。但是对于“被误差”的个体而言,算法歧视给某些人群带来了完全不同的结果。当特定的产品与服务仅向特定群体投放时,实际剥夺了个体的知情权利,窄化了用户的选择范围,导致某些对象失去获得新资源的机会。有学者指出,科技可以创造社会进步,但是科技的不均衡则会导致社会知识和权力的集中,加剧阶层分化现象。算法歧视实际上将个体困在了原有的社会结构之中,加剧社会资源分配上的“马太效应”。
而在社会认知层面,算法歧视固化和放大了人类社会的偏见。英国学者詹姆斯·布莱德尔指出,对机器的信任是加深这种“自动化偏见”的前提,数据以事物的现状为模板,那些不能被归入旧有模式的都将被排除,计算投射的未来与过去如出一辙。与社会文化同构的智能算法,无法完全规避来自人类社会的偏见。从偏见衍生出的算法规则输出了具有歧视性的结果,而这种结果作用于现实世界的个体,个体又成为一种数据再次被算法所学习,由此形成社会偏见的循环固化。而连带歧视的概念指出,最无害的人群分类都可能产生有害后果,这就意味着貌似中立的个人数据也可以成为将人群划分为三六九等的要素,放大了算法的歧视倾向。
相关影视
合作伙伴
本站仅为学习交流之用,所有视频和图片均来自互联网收集而来,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,也不参与录制、上传
若本站收录的节目无意侵犯了贵司版权,请发邮件(我们会在3个工作日内删除侵权内容,谢谢。)

www.fs94.org-飞速影视 粤ICP备74369512号