疫情下的机器人护理问题:算法中的种族与性别歧视(4)
2023-05-01 来源:飞速影视
值得注意的是,这样做并不是为了保证语言教学的成功(语言教学当然并不依赖于这种分裂),而是为了按照机器人专家的要求,创造人与机器之间的无缝集成。
由日本机器人专家石黑浩(Hiroshi Ishiguro)发明的机器人艾丽卡(Erica),是机器人专家在追求人性的过程中重现性别规范的另一个例子。石黑浩希望目前仍处于早期原型阶段的艾丽卡有助于引领机器与人类共存的世界,机器人将通过做最乏味和不受欢迎的工作来改善人类的生活,包括照顾病人和老人。但是,通过对艾丽卡进行编程以模拟一种“温暖、温柔和关怀”的情感,石黑的团队加倍强调了这种护理工作的性别化区分。艾丽卡的设计是以这样一种看法为前提的:照顾世界的劳动责任主要是妇女来承担,她们将提供温暖和温柔,同时减轻人类的负担和痛苦。艾丽卡还被设计为“遵守传统的性别美”的标准。正如石黑所指出的,他把艾丽卡设计成“最美丽的”机器人,吸取了(他所认为的)“三十个美丽女人”的综合形象。显然,仅仅成为一个女性护理机器人是不够的;
你还必须是一个“美丽”的机器人。
日本大阪大学智能机器人研究所所长石黑浩(左)和机器人在交流。对机器人技术中的种族问题的关注,不仅延伸到了机器人的外观,还包括它们如何与他人互动。像格蕾丝和爱丽卡这样的机器人将如何识别和解读各种各样的面孔呢?可能被植入格蕾丝的算法中的种族主义假设,是否会决定患者将接受的治疗干预类型?人工智能的面部识别系统出了名的糟糕,例如,在解释肤色较深的人的情绪反应方面。有些人根本无法感知深色皮肤的人的脸,更不用说理解他们的表情了。社会学家鲁哈·本杰明(Ruha Benjamin)发现,健康保险公司在评估健康风险时最常用的工具之一,将理论上的黑人病人定义为比具有相同健康标志的白人病人的风险要小,因为该工具的算法存在种族偏见。换句话说,我们看到的是另一个压迫性系统的出现,它通过促进对护理工作的“调节理解(mediated understanding)”和提供护理来构建社会关系。
本站仅为学习交流之用,所有视频和图片均来自互联网收集而来,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,也不参与录制、上传
若本站收录的节目无意侵犯了贵司版权,请发邮件(我们会在3个工作日内删除侵权内容,谢谢。)
www.fs94.org-飞速影视 粤ICP备74369512号