夏然|我国算法歧视的类型、根源及协同治理路径探究(8)

2023-05-21 来源:飞速影视
总体而言,以上学者提出的治理模式虽能在一定程度化解算法歧视,但仍然存在不足。首先,虽然以划分场景类型以适用不同规制手段的治理模式对算法歧视的治理更为精细化,但也增加了监管者的监管难度。其次,算法歧视的表现形式多样,同一平台下算法的运行机制并不单一,如何有效对算法歧视的具体场景进行分类的现实难度较大,而“场景化的治理模式是描述性而非规范性的,在缺乏整体结构下的任何精细化进路,或者演绎分析,或者沦为套套逻辑,终将徒劳无功。”算法歧视行为的界定不同于传统民事责任,在具体归责时私人治理模式仍会遇到困难,因此仅以私人治理有失偏颇。而以技术逻辑入手的治理模式也忽略了算法决策者的人为因素,且现行算法运行机制存在开发者都无法掌握的“黑箱”,而最终算法歧视的责任需平台承担,因此以技术规训的治理模式有可能成为算法平台以此逃避责任的理由。
基于此,本文提出协同治理路径来化解算法歧视问题,旨在最大程度发挥算法歧视治理背后多元利益主体的优势,完善消费者的个人权利保护,发挥企业作为算法开发者的专业优势,使其建立基于防控算法风险的专项治理体系,从源头遏制算法歧视。同时赋予行业协会对算法技术的审查权,加强其对算法平台的监督,使其担负社会责任。厘清执法部门的监管职责以及合理协调内部的权力划分,完善监管目标,最后在立法层面完善算法歧视责任认定等问题,有效保障公民权利救济,形成针对算法歧视的内外联动,多元主体协同治理的治理体系,最终实现算法技术与利益主体的良性互动。
算法歧视的协同治理路径
1.完善公民个人的算法及信息权利保护
对于算法决策的对象,公民个人掌握的权利远不及算法服务者,为弥补公民个人与算法服务者在专业及权利地位上的不对等,应在算法决策的事前及事中阶段完善公民个人的算法及信息权利。首先,个人信息保护法第24条虽然确定了公民个人在数据搜集阶段可要求信息处理者对自动决策予以说明的权利,并可自主选择是否由自动化决策应用其个人信息作出决定,即用户的选择进入机制。这是针对算法歧视对公民个人在事前做出的保护,但现实情况往往是当用户下载一项软件时,只有在同意经营者对其个人信息数据进行收集及使用时方可正常使用此软件服务,且在此之后用户没有了再选择要求经营者停止使用其数据进行算法决策的权利。“知情同意”条款往往非常晦涩冗长,超出了普通民众的认知范围,并未发挥其真正效果,而用户在同意之后只能忍受后续算法决策的歧视结果而无能为力。
相关影视
合作伙伴
本站仅为学习交流之用,所有视频和图片均来自互联网收集而来,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,也不参与录制、上传
若本站收录的节目无意侵犯了贵司版权,请发邮件(我们会在3个工作日内删除侵权内容,谢谢。)

www.fs94.org-飞速影视 粤ICP备74369512号