纪录片《编码歧视》:客观的算法是不存在的(2)
2023-05-01 来源:飞速影视
影片还展示了深深植根于我们生活中的技术如何增强了现有的不对称权力动态。影响人们生活的算法通常隐藏在“黑匣子”中,它们由大型科技公司建立,利用所有权保护政策来阻止公众了解其算法如何工作,公司正在收集我们的数据。
坎塔亚通过电话向OneZero讲述了她是如何了解算法歧视的,她希望《编码歧视》纪录片能够帮助公民理解并保护自己的权利。《编码歧视》将于今年秋季在部分影院上映。
Q:您是如何开始了解算法歧视的?是什么启发您拍了一部关于它的电影?
坎塔亚:我的很多工作都是关于颠覆性技术,以及它们是如何让这些技术或多或少变得公平和平等的。我常常思考关于种族、性别和阶级的问题,而且我还发现了像乔伊·布兰维尼、凯茜·奥尼尔和泽伊内普·图菲克希等女性的作品。我开始对大型科技公司的黑暗面感兴趣,同时这也让我陷入了困境。
图源:unsplash
Q:影片中有哪些算法歧视的例子?
亚马逊曾经有一种算法,技术本身无法歧视,但该算法在招聘实践和保留方面借鉴了过去的性别歧视,并开始挑选出简历上有女子大学或体育经历的女性。所以,这个人工智能在招聘过程中会不自觉地歧视女性。
电影的核心部分是面部识别在深色面孔或女性身上的效果不佳,而这些人是最容易被种族定性的目标。就在最近,底特律的一名男子因面部识别错误而被拘留了30个小时,这种例子实在是太多了。
Q:正在开发该技术的公司和人员,需要做些什么来消除算法中的编码歧视呢?
我的电影的观众实际上并不是技术人员,而是公民。公司在招聘时应该更负责任,更具包容性吗?当然,但我的关注点并不是公司。对我来说,我并不是要制定一个完美的算法,而是想要建立一个更加人性化的社会。
这部电影的关注点是让公民去理解这些工具,以便我们可以使用法律和保护措施来防止这些歧视行为的发生;这样一来,就不会任由科技公司把他们的技术卖给联邦调查局、警察或其他没有被选举出来的人参与的企业。企业做这件事并不比政府做得更好,公民需要开始要求谷歌公司和苹果公司不要复制这种独裁的监控技术。
本站仅为学习交流之用,所有视频和图片均来自互联网收集而来,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,也不参与录制、上传
若本站收录的节目无意侵犯了贵司版权,请发邮件(我们会在3个工作日内删除侵权内容,谢谢。)
www.fs94.org-飞速影视 粤ICP备74369512号