要反互联网垄断,还得从算法共谋谈起(11)
2023-05-04 来源:飞速影视
在国家干预选择的范围内,一些专家现在主张建立新的监管制度来规制数字经济。Gawer(2016)建议创建全球数字经济规制机关,这个中央独立的机构负责协调和监控因特网和数据的不同的规制方面。此外,为了防控算法和人工智能所带来的风险,其他人建议建立新型的人工智能规制体制:建议创制《人工智能发展法》,并建立相应的机构,主要任务是核实人工智能系统的安全性,不赋予这个新的机构像FDA的权力禁止企业生产它认为不安全的产品。在这部法律创设的责任体系中,经过该机构审核的设计者、生产者和卖方受到有限侵权责任的制约,而没有经过审核的用于商业销售或使用的项目将受到严格的共同和单独责任的影响(Scherer2016)。
(二)算法的透明化原则和追责的措施
最近讨论的监管规制措施聚焦在使算法透明化并对其产生的效果承担责任。美国的联邦贸易委员消费者保护局建立了崭新的技术研究和调查的办公室,负责在数个主题中进行独立的研究和提供指导意见,包括算法透明。
另外,美国计算机协会公共政策委员会对算法的透明化和责任推荐了一套原则,目的是既可以对算法的创新发展实现最小化伤害又可以实现算法决定的好处。这些原则包括:
意识原则:算法分析系统的所有者、设计者、使用者和其他的利益相关者在设计、执行、使用中应该意识到可能涉及的偏见以及偏见对社会和个人产生的伤害。
进入和救济原则:规制者应该鼓励采用系列的机制,利用这种机制能向算法通知决定负面影响的个人和群体提出问题和采取救济措施。
责任原则:算法开发机构应该对使用算法产生的算法决定负责,即使他们不能详细地解释算法如何产生结果。
解释原则:鼓励使用算法做决定的系统和机构鉴于算法跟随的程序和做出的特别决定做出解释。在公共政策背景下,这种解释非常重要。
数据出处原则:算法的构建者应该持续地描述收集目标数据的方式,同时要探测由人或算法收集数据过程引起的潜在的偏见。数据的公共审查为纠偏提供了机会。然而由于关涉个人隐私、保护商业秘密,或者分析结果的披露使邪恶的经营者可能钻制度的空子,限制进入有资格且授权批准的个人数据成为正当的理由。
审核原则:应该记录模型、算法、数据和决定,以便遇到不承认算法造成的损害时可以审核这些证据。
证实和测试原则:执法机构应该用严格的方法来验证他们的模型并记录那些方法和作用。特别地,他们应该常规地进行测算,以评价和决定模型是否产生歧视性损害,并鼓励这些执法机构公开这种测算的结果。
本站仅为学习交流之用,所有视频和图片均来自互联网收集而来,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,也不参与录制、上传
若本站收录的节目无意侵犯了贵司版权,请发邮件(我们会在3个工作日内删除侵权内容,谢谢。)
www.fs94.org-飞速影视 粤ICP备74369512号