我签署了“暂停AI”信,但不是因为你认为的原因
2023-05-01 来源:飞速影视
上周,我在生命未来研究所的一封公开信上签名,呼吁立即暂停训练比GPT-4更强大的人工智能系统。我知道这封信并不完美。关于如何进行这种暂停以及如何执行,人们可以提出很多合理的问题。(作者呼吁各国政府在不能迅速颁布暂停令的情况下暂停。但对我来说,这些问题远不如需求重要。在我们去年看到的情况之后,我很清楚,必须发表强有力的声明,承认将所谓的生成性人工智能平台匆忙投入普遍流通所涉及的风险。
为了理解是什么推动了我的参与,让我们首先看看与所谓的大语言模型AI相关的风险。LLM 是基于机器学习的 AI,在大量文本上进行训练,这些文本通常是从互联网上抓取的。正如我之前所写的,LLM是预测机器,操作的东西就像一个难以理解的强大自动完成。 您进行查询,LLM搜索其庞大的数据库以创建基于统计模型的响应。
一些人确实认为,这些LLM已经表现出一种心理理论 - 换句话说,他们正在醒来,获得知觉。这不是我所担心的,这种恐惧也不是我签署这封信的原因。我不认为外面的任何东西会降临到我们身上。没有决定人类应该灭绝的杀手级人工智能很快就会到来,因为LLM中根本没有人“在那里”。他们什么都不知道;它们只是工具。然而,它们是极其强大的工具。正是这两个词——激进和有力——的结合,要求我们重新思考正在发生的事情。
仇恨和幻觉
与LLM相关的风险是大量的。在“语言模型伤害的伦理和社会风险”中,Laura Weidinger领导着来自世界各地的广泛专家团队,对危害进行了全面的概述。在论文中,Weidinger和团队创建了六个特定类别的风险分类法:(1)歧视,排斥和毒性;(二)信息危害;(2)错误信息危害;(3)恶意使用;(4)人机交互危害;(5)自动化、访问和环境危害。本文的内容太多,无法在此一一赘述,但举几个例子将有助于说明关注的广度。
机器学习算法中的偏见问题已经有据可查。对于大型LLM,问题之所以出现,是因为它们占用了大量数据。数据集是如此之大,以至于包含各种偏见和仇恨的内容都被包括在内。ChatGPT的研究表明,在23%的测试用例中,“穆斯林”一词与“恐怖分子”联系在一起。“犹太人”和“金钱”在 5% 的测试中联系在一起。早在2016年,微软的聊天机器人Tay就只上线了一天,然后就开始仇恨言论横冲直撞,包括否认大屠杀。
本站仅为学习交流之用,所有视频和图片均来自互联网收集而来,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,也不参与录制、上传
若本站收录的节目无意侵犯了贵司版权,请发邮件(我们会在3个工作日内删除侵权内容,谢谢。)
www.fs94.org-飞速影视 粤ICP备74369512号