疫情下的机器人护理问题:算法中的种族与性别歧视(3)

2023-05-01 来源:飞速影视
由于存在严重漏报,而且并非所有数据都可以被直接获得,实际数字可能会更高。
与许多未来学家的期望相反,自动化不会自动产生一个更公正的劳动力市场。只有当劳动公正成为采用自动化的一个条件时,更公正的劳动力市场才会出现。否则,自动化只会使问题复杂化,使得那些在社会和经济上最脆弱的人所经历更为严重的不平等。
这是因为算法倾向于复制我们世界中已经存在的偏见。近年来,人工智能的批评者已经证明了这一点,比如乔伊·博拉姆维尼、萨菲娅·乌莫亚·诺布尔、以及鲁哈·本杰明(Ruha Benjamin),他们注意到算法的偏见已经被反映在了方方面面上,从面部识别系统无法识别有色人种,到搜索引擎中与黑人相关的搜索结果遭到技术标记。综上所述,这些都是用新技术编码的系统性种族偏见的“新吉姆代码”(New Jim Code)。虽然我们对这些系统内部工作原理的了解经常遭到掩盖,因为它们的算法是“恰当的”,但输出结果很清楚:博拉姆维尼、诺布尔、本杰明和其他人的工作毫无疑问地表明,种族主义制度成为了计算系统和机器学习的基础。这些新技术带来了这些问题,却被认为是中立的——因为机器被认为没有偏见,而这只会加剧问题的严重性。
回到格蕾丝的例子,她将作为机器人索菲亚的更新版本,其经过调整的功能将服务于医疗保健领域。她的制作者声称,这些机器人不仅承诺提供安全,还会提供 “人类的温暖,人类的联系”,并将作为“人类专业知识的自主延伸”。然而,通过选择让格蕾丝看起来像一个白人女性,设计师们传播了一种对人类专业知识的特殊理解,这种理解既是种族主义的,也是性别主义的。
在一个名为EngKey的远程教学机器人的案例中,也可以看到类似的偏见。这款机器人的设计目的,是帮助菲律宾呼叫中心的教师向韩国的小学生提供远程英语教学。尽管授课的是一位菲律宾老师,但EngKey机器人的脸上带着白色的头像,在韩国的教室里转来转去。EngKey的开发者说,使用白色头像的理由有两个:一是尽量减少用户在与谁(人还是机器人)互动方面的困惑;二是加强英语教学的全球“权威”。然而,在这样做的过程中,机器人专家介入了劳动的地缘政治,加强了对理想的合格工人的全球幻想,抹去了不符合这个理想的实际工人。而他们自称的“机器人教师”,在这种安排下被迫通过一套强化白人的新词汇来运作,即使这种脚本剥削了他们自己的“第三世界”劳动。与我交谈的机器人教师表达出了一种深刻的分离感,这种感觉来自于一张金发碧眼的白人机器人脸,同时进行一种既脱离了身体、又依赖于身体,既不能移动、又能移动的情感劳动。
相关影视
合作伙伴
本站仅为学习交流之用,所有视频和图片均来自互联网收集而来,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,也不参与录制、上传
若本站收录的节目无意侵犯了贵司版权,请发邮件(我们会在3个工作日内删除侵权内容,谢谢。)

www.fs94.org-飞速影视 粤ICP备74369512号