浅析欧盟人工智能算法歧视的法律规制(3)
2023-05-01 来源:飞速影视
当然,针对欧盟有关算法透明度的要求,也有学者提出质疑,认为这种规定不必然导致算法公平,也并不必然阻止算法歧视,反而不利于维护算法决策在准确性与透明度之间的平衡关系。因为算法的复杂性决定了往往难以对其作出通俗易懂的解释,而且机器学习也会导致算法变得难以识别,此外商业秘密保护、技术能力等也影响算法透明制度实施。
确定相关法律责任
《通用数据保护条例》还对相关人员所应承担的义务和责任进行了规定。在算法设计者层面,算法设计者作为算法编写、分析及运行的主导者,应当是算法偏见产生的直接责任人。为此,《通用数据保护条例》对算法设计者的法律责任作出了规定。首先,为预防“算法黑箱”带来的透明度缺失问题,算法设计者应当在算法编写之初到算法运行阶段承担数据痕迹可查义务,以保证算法训练数据的真实可靠;其次,算法设计者应就算法涉及的部分技术原理进行阐释,以保证算法目标服务人群充分了解情况,缓解因“解释黑箱”产生的算法偏见;最后,若算法设计者出于自身主观偏见,在算法编写之初便嵌入歧视性程序,破坏算法的技术中立和价值中立,则其应当承担恶意操纵的法律责任。在算法使用者或应用平台层面,由于其与算法目标服务人群联系密切,使用者或应用平台关于算法运用、决策的意志关乎被服务人群的切身利益。
当算法由于使用者或应用平台自身产生“组织黑箱”导致透明度缺失,产生算法歧视侵害行为时,使用者或应用平台应当承担较设计者而言更为严苛的责任。故欧盟在算法歧视法律归责问题上,采用严格的企业问责制度,依法对算法使用者及应用平台进行追责。《通用数据保护条例》详细规定了数据使用者、控制者以及处理者在搜集、储存和分析数据主体个人数据时应当承担的义务,并在第82条和第83条明确规定了民事赔偿责任和行政处罚。《通用数据保护条例》规定的企业问责制度促使相关企业在其生效后,投入大量成本维护信息数据安全,在一定程度上缓和了因数据泄露或数据偏差导致的算法歧视问题。
但令人遗憾的是,欧盟并未对算法责任承担问题作出具体的专项规定,使得在因算法歧视发生侵权问题后,缺乏完善的责任承担机制,不利于算法歧视问题的事后法律规制。
数据是算法的基础,是算法平稳运行的助推器。欧盟“以数据保护为中心”的算法歧视法律规制模式在对用户个人数据实行严格保护的同时,对算法以及人工智能进行法律约束,将算法可能产生的风险扼杀在数据阶段,为相关法律实践提供了新思路。
(作者单位:福建江夏学院金融学院)
来源:中国社会科学网-中国社会科学报 作者:李良雄
欢迎关注中国社会科学网微信公众号 cssn_cn,获取更多学术资讯。
本站仅为学习交流之用,所有视频和图片均来自互联网收集而来,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,也不参与录制、上传
若本站收录的节目无意侵犯了贵司版权,请发邮件(我们会在3个工作日内删除侵权内容,谢谢。)
www.fs94.org-飞速影视 粤ICP备74369512号