浅析欧盟人工智能算法歧视的法律规制(2)
2023-05-01 来源:飞速影视
管控“算法黑箱” 提高数据透明度
在人工智能算法技术层面,除算法内置性编码凝视(即在算法设计之初就嵌入程序的固有偏见)以及算法运行数据偏差外,“算法黑箱”也是导致算法歧视的原因之一。“算法黑箱”是指算法在归纳分析海量数据后,形成一种更为高级的认知方式。程序员不仅不能观察,同时也难以理解算法“自主认知”后产生的代码链条,导致算法运行过程变得愈加模糊。尽管算法开发者一般都会谨慎对待相关问题,但人们仍然难以把握和消除算法运行过程中产生的系统歧视。美国布鲁克林法学院教授弗兰克·帕斯奎尔(Frank Pasquale)将“算法黑箱”分为三个层次:一是由于算法自身深度自主学习导致透明度缺失形成黑箱,也即“技术黑箱”;二是由于算法具有较强的领域性与专业性,对于非专业群体而言算法本身就是“黑箱”,也即“解释黑箱”;三是由于算法使用者或应用平台不公开算法数据相关信息,使算法在应用层面透明度缺失形成黑箱,也即“组织黑箱”。
“黑箱”概念逐渐成为算法透明度缺失的各类具象化表现的代指,学术界也愈来愈认可此种用法。
为缓解不同“算法黑箱”可能带来的不同性质算法歧视问题,欧盟要求数据使用者提高算法透明度并加强管控,相关措施主要分为两个方面:一方面是要求个人数据透明与操作路径有迹可循。在个人数据透明层面,算法的运行以海量数据为基础,从数据的收集、存储到分析、运行,再到算法自动作出决策,无一不影响着算法的最终质量。任一环节中的数据瑕疵或缺陷,均会导致带有歧视性的算法结果。故欧盟规定了数据的合法、公正和透明原则,要求算法开发者应当通过正当途径获得用户主体个人数据并将数据予以公开,使得算法在数据来源、数据内容方面可查,增强算法在训练阶段、运行阶段、决策阶段的透明度,减少黑箱带来的歧视影响。另一方面是要求算法透明,建立起对算法模型的审查机制。“算法黑箱”之所以会导致算法偏见,除“技术黑箱”外,均是由于算法模型本身可识别却不为人们所了解,例如“解释黑箱”与“组织黑箱”加剧了算法的不透明问题,使算法失去掌控,产生未知偏见。
根据《通用数据保护条例》第13、14条相关规定,数据使用者如果将用户个人数据用于“自动化决策”,那么数据使用者要承担信息披露责任,主动向数据主体提供与该决策有关的“有用信息”,同时对可能出现的问题进行风险提示。但是通过增强算法透明度来打开黑箱,并不意味着要将所有算法信息公开,根据欧盟的相关规定,此处的“有用信息”是指对于数据主体而言浅显易懂且有利于主体的信息,并非所有算法关联信息,鼓励数据使用者向主体解释某一特定决策产生的具体原因。
本站仅为学习交流之用,所有视频和图片均来自互联网收集而来,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,也不参与录制、上传
若本站收录的节目无意侵犯了贵司版权,请发邮件(我们会在3个工作日内删除侵权内容,谢谢。)
www.fs94.org-飞速影视 粤ICP备74369512号