凯文·沃巴赫:人工智能、信任与法治(3)

2023-05-21 来源:飞速影视
那么,我们如何通过法的治理和人工智能算法的治理来产生信任?我们可以把法治理解为赋予法或规则以特权,也可认为它们始终平等、不可分割。对于治理和算法,即人工智能,有一套同等的选择和关系。每条途径都由原则指导。真正的争论发生在原则层面。法的可预测性和规律性,与其保障基本权利的扩展能力相比,意味着什么。同样,我们在人工智能方面也面临着类似的争论。
这是一个高层次的出发点。关于这种分析的具体例子,可以参考社会科学研究网(ssrn)预印本库中的文章《圆形监狱的复兴(panopticon reborn)》。该文谈到了中国的社会信用体系,这是当今世界上最重要的算法决策实验(尽管还没有普遍纳入人工智能)。
◆◆五、人工智能——黑箱◆◆
在人工智能和法可信且值得信赖的方法的关键要求方面,我们倾向于认为现代人工智能是一个黑箱。它就像大脑,像一台复杂得令人窒息的机器,尽管我们的科学能力很强,但我们了解甚少。我们可以绘制所有神经元和轴突的化学、物理、生物和网络结构图,但对于意识是如何出现的这一问题,我们似乎离答案还很远。然而,即使我们的进展停滞不前且不完善,我们也不能直接放弃,将大脑置于信仰和故事的领域。
人工智能也是如此。要让人工智能变得可控,符合法的规则,成为信任的工具,我们就得不断探索这个黑箱。
◆◆六、信任的基础◆◆
建立信任意味着不仅要在狭义的技术意义上,创造可解释的人工智能,使其符合法律要求,能识别确定决策的主要原因或是证明不存在被禁止的歧视,还要在三个关键阶段进行运作:输入、输出和运作中的反馈。
我们必须将为人工智能提供动力的数据视为基础设施。必须对输入进行追踪和审查,但也必须尽可能在最大程度上做到开放和可存取。
我们必须仔细调整我们目标函数的目标。人工智能的输出,尤其是用于重大决策或政府活动的人工智能系统,不能仅仅被正式定义为最小化一个错误项,或定义为产生与狭义形式化的问题相一致的结果。
而且我们必须纳入整体监督。反馈结构从输出返回、从输入前移,以及从技术实现和围绕算法的人工程序进行双向反馈,不能在事后相互关联,应当预先行动。得有人参与闭环,有发现和应对问题的激励结构,有针对问题的调整机制,还有监督系统使用者和控制者的手段。
要注意法和道德虽在图中,却在黑箱之外。然而,如果我们放大,这个人工智能系统的所有内容都可能被装进一个代表法律或道德决策的盒子。这是一个无限递归。没有法,人工智能就无法茁壮成长,而法也同样不能忽视人工智能。
相关影视
合作伙伴
本站仅为学习交流之用,所有视频和图片均来自互联网收集而来,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,也不参与录制、上传
若本站收录的节目无意侵犯了贵司版权,请发邮件(我们会在3个工作日内删除侵权内容,谢谢。)

www.fs94.org-飞速影视 粤ICP备74369512号