浅析欧盟人工智能算法歧视的法律规制

2023-05-01 来源:飞速影视
作为一项战略性技术,人工智能在新一轮科技革命和产业变革中发挥着引领作用,其溢出带动性较强。出现在移动互联网、大数据、超级计算、传感网等领域的技术突破,促使人工智能技术迅猛发展,成为当下社会经济发展的新引擎和新动能。然而,人类在享受人工智能技术红利的同时,也面临着人工智能背后隐藏的伦理问题,特别是作为人工智能内核的算法所引发的歧视问题。人工智能算法歧视主要包括三种类型:一是源于人类社会以及算法设计者自身的偏见,即先行存在的歧视;二是算法设计之初由技术中立问题导致的偏见,即技术性歧视;三是由于社会环境变迁导致的偶然性算法偏见,即突发性歧视。针对上述问题,欧盟颁布了《欧盟基本权利宪章》《机器人民事法律规则》《通用数据保护条例》等规则,并以《通用数据保护条例》为主体、以“数据保护”为主旨对人工智能算法歧视进行法律规制。

浅析欧盟人工智能算法歧视的法律规制


借“数据清洁”抑制算法歧视
算法导致的数字歧视风险主要产生于两个阶段:一是在数据采集、储存阶段。在物联网技术下,人工智能设备大多会不经数据主体同意,在主体不知情状态下获取用户隐私数据并进行算法分析。二是在算法运行阶段,算法在分析运行海量数据时常会因设计者或技术本身的原因带来偏见,导致输出结果与现实情况出现落差。基于此,《通用数据保护条例》第2条第1款通过对数据范围的把控,将全自动和半自动个人数据处理纳入条例规制范围,填补了欧盟过往在算法规制问题上的立法空白。同时,通过第9条规定了算法歧视的“数据清洁”,即要求在数据库内清除特定的具有歧视意义的数据内容,以防止数据主体由于“敏感数据”而受到算法歧视。该条例在第22条第4款中进一步明确表示,如非出于社会秩序及公共管理需要或已经获得数据主体的同意,且已采取措施保护数据主体权利、自由和正当利益,被自动化决策处理的个人数据不能包含“敏感数据”。
不过,“数据清洁”虽然在理论上有助于抑制算法基于个人特质形成的直接歧视,但是难以抑制算法基于个人特质相关数据形成的间接歧视。在大数据时代,人们的个人数据与其他数据之间存在高度关联性,“数据清洁”原则虽可清除特定的“敏感数据”,但却无法清除与其高度关联的其他数据。欧盟目前规定的“数据清洁”范围显然不能满足全部现实需要。如何实现个人数据保护与算法分析准确性之间的平衡,是欧盟以“数据保护”抑制算法歧视理念能否持续运行的关键。
相关影视
合作伙伴
本站仅为学习交流之用,所有视频和图片均来自互联网收集而来,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,也不参与录制、上传
若本站收录的节目无意侵犯了贵司版权,请发邮件(我们会在3个工作日内删除侵权内容,谢谢。)

www.fs94.org-飞速影视 粤ICP备74369512号