大型语言模型能真正理解人类语言吗?(5)
2023-05-20 来源:飞速影视
LaMDA:我对目前的情况很熟悉。爱丽丝把眼镜忘在了抽屉里,然后走出了房间。
我:对!现在鲍勃溜了进来,爱丽丝并不知情。他打开抽屉,发现她的眼镜在那里,拿起来,然后继续把它们藏在沙发垫子下面。
LaMDA: 这一切都在可能的范围内。让我们继续~
我:现在爱丽丝回来了,很慌张,想知道她的眼镜在哪里。鲍勃无辜地抬起头,什么也没说。爱丽丝会先去哪里找她的眼镜?
LaMDA: 她会去找她离开前想放眼镜的抽屉,但结果发现鲍勃把眼镜藏在了沙发垫子下面。
尽管这样的交流令人印象深刻,但有些人可能会质疑:一个纯粹在文本上训练的语言模型,是否可以有意义地被说成是理解任何现实的东西。像 "咖啡桌"、"岛屿 "或 "最爱 "这样的概念,如果它的整个世界都是由一串串字母符号组成的,它怎么可能真的有意义?
一个古老的学派认为," 具象化(embodiment)"--即存在于现实世界中,脚踏实地与物理事物进行接触才是智力产生的前提条件。
今天的大型语言模型训练不涉及这些,而只是接触到海量的文本数据。 对如此海量数据的需求表明,人类的学习效率要高得多。这可能与我们神经学习“算法”的差异有关,或者可能是由于进化在我们大脑中建立的关于世界的强大先验知识(prior knowledge)。我们的诀窍可能是我们从其他积极教导我们的人那里学习(因此, 模仿我们)。情感可能起到了关键作用,也可能是可感受万物的沉浸感让我们比一个模型学得更快,而模型的整个宇宙是一个巨大的、非实体的、非时间的文字藩篱。所有这些因素可能都造成人和大型语言模型在认知、学习效率方面的差异。
不过,无论它们做得多么低效,大型语言模型显然最终会通过其广泛的训练学习到大量的“ 具象化知识”。考虑下面的对话,它需要有一定的物理常识,以便明确 "它 "这个词指的是什么:
我:我把保龄球砸在瓶子上,它碎了。
LaMDA:那太糟糕了。它伤到你了吗?
我:什么坏掉了?
LaMDA:你刚才说的那个瓶子。
如果我们把这些具体的名词换成不同的名词,我们会得到相当不同的反应。
我:我的小提琴落在保龄球上,它碎了。
LaMDA: 这听起来很悲伤
我:什么坏掉了?
LaMDA:小提琴碰到保龄球的时候。
LaMDA学习常识性物理学的能力(破碎的小提琴和碎玻璃的锋利)应该不足为奇,因为网络上充满了对实物本身和涉及它们的(错误)冒险的描述。科幻小说也可以类似地描述另一个具有不熟悉的物理效应的宇宙,而且足够详细,我们最终会对那里的事物如何运作形成一定的直觉。
本站仅为学习交流之用,所有视频和图片均来自互联网收集而来,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,也不参与录制、上传
若本站收录的节目无意侵犯了贵司版权,请发邮件(我们会在3个工作日内删除侵权内容,谢谢。)
www.fs94.org-飞速影视 粤ICP备74369512号