夏然|我国算法歧视的类型、根源及协同治理路径探究(6)
2023-05-21 来源:飞速影视
最后,算法背后的利益主体具有多元性,“部分在传统认知框架中仍被视为‘私主体’的公司、组织和平台,在数据和信息获取能力、专业技术能力和社会资源掌握层面具有绝对的优势。”算法平台、行业组织等主体,均可在一定层面对算法治理发挥技术性规制作用,而作为弱势一方的公民个人与社会公众虽被赋予了事后追责的救济权利,但面对强势方的算法平台权利形态仍略显单薄。因此,对于算法歧视的治理,更应加强对弱势一方的权利保护,发挥不同利益主体的力量,探寻更为综合的治理路径,以建构完善的风险防范、企业合规、权责分明的算法歧视治理体系,实现利益主体的权利平衡。
2.具体规范与算法技术存在难以适应性
首先,从算法技术的开发或决策者角度入手,国家虽以立法形式在法律层面让算法开发者或决策者对算法技术负有“解释说明义务”以保证算法决策过程的公开、透明。“算法透明来自域外实践,美国学者认为,这是算法的一项预规范原则,要求算法的设计者或用户披露算法元素,包括源代码、输入数据和输出结果。”而通过设定披露、解释义务的方式无法完全与当前算法技术相适应,其中的问题在于算法技术已经趋向深度学习的自主化模式,从而产生了难以预测的算法黑箱,算法或决策者无法掌握此模式的运行机制,因此也就无法向外界进行解释,履行其义务。同时也有学者认为,“算法透明并不意味着算法问题能被发现,客观运行环境与算法的交互、第三方干预等也无法有效控制,因此算法透明原则不具有必要性。”此外,算法作为互联网平台竞争的核心,履行解释义务也会增加其知识产权受侵犯、商业秘密泄露的风险,无形之中加大了算法平台的开发及运营压力。
其次,从算法决策对象——公民个人来说,个人信息保护法虽赋予了其可以侵权为由起诉算法服务者的相应权利,但更为具体的侵权责任认定问题并未得到明确。传统的侵权责任认定以满足构成要件为基础,对于算法歧视造成的侵权,在算法决策行为与其产生的歧视性结果之间因果关系的举证方面,如果以传统的原告方承担举证责任,则会加大公民个人的维权难度。“算法的机理在于将新增加的信息和之前形成的记忆不停进行综合,从动态的随机数据中临时建立相关性的模式,进而做出当下的判断。”而若新增加的数据变量不断增加,由此产生的相关性也会增加,但最终的决策是根据相关性决定的,由于数据一直在不断更新,到底是哪种临时相关性所决定的根本无从确定,即便在此之后再进行演示,也无法保证与当时决策的相关性一致。由此,算法歧视侵权责任中因果关系的确定与算法的运行逻辑之间产生了矛盾。
本站仅为学习交流之用,所有视频和图片均来自互联网收集而来,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,也不参与录制、上传
若本站收录的节目无意侵犯了贵司版权,请发邮件(我们会在3个工作日内删除侵权内容,谢谢。)
www.fs94.org-飞速影视 粤ICP备74369512号