大型语言模型能真正理解人类语言吗?(3)

2023-05-20 来源:飞速影视
关于哲学僵尸(philosophical zombie)的定义
作为成年人,我们可能会觉得把人格(personhood)赋予 给" 纯粹的机器 "是愚蠢的,就像20世纪80年代和90年代鼓励孩子们对电子玩具,如泰迪熊(Teddy Ruxpin)、Tamagotchi和Furby进行的那样。很明显,我们这个物种已经准备好这样做了, 因为有多少孩子在会说话之前就对着他们的东西,甚至是他们最喜欢的毯子说话了。在传统社会中无处不在的泛灵论宗教(Animist religions),几千年来一直毫不掩饰地赋予树木、河流、山脉和地球本身以人格。任何为自己的汽车命名或在脚趾头绊到石头后对它大喊大叫的人在某种程度上仍然相信这种魔力。
同样神奇的想法是,人格、经验和苦痛需要灵魂(soul),而且只有人类才有灵魂,这类说辞在历史上被用来为虐待动物的行为进行辩护。笛卡尔(René Descartes,1596-1650)采取了这种立场,认为动物是 "纯粹的机器",因此它们的任何疼痛或痛苦表现都只是一种机械反应(mechanical response),也就是我们现在所说的 "算法(algorithm)"。当然,如果我们不同意这样的观点,即无论是人类还是非人类的大脑,都是由另一个平行世界的 "灵魂 "拉动的,那么痛苦、快乐和意识都是机械的,因为它们是我们可以用数学来描述的物理、化学和电气过程的功能。因此,无论我们是否相信LaMDA的说法,我们的基础都是不稳固的。
在对一个巨大的网页档案(a giant archive of web page)进行广泛的训练之后,LaMDA被 "指导(instruct) "进行类似于人类的对话,其依据是几千个被标注为 "敏感性 (sensibleness)"和 "具体性 (specificity)"等特性标签的对话样本。回答 "这很难,我必须说是夏威夷 "得到了积极的反馈,因为它既合理又具体。"可能是北岛的那个"(既不合理也不具体)和 "我不知道"(合理但不具体)都得到了负面反馈。
我们可能会对所有这三种潜在的反应感到不解:事实上,LaMDA从未拥有肉身在尘世中生活过,从未踏上过一座岛屿,也没有形成过自己的任何观点,怎么会有一个 "最喜欢的岛屿"?它不是在瞎扯淡么?如果是这样,它能被说成是 "理解 "了任何东西吗?还是它只是按照某种合理的顺序发出随机的话语,旨在欺骗人类,让他们相信自己是在和一个人类同伴交谈?
相关影视
合作伙伴
本站仅为学习交流之用,所有视频和图片均来自互联网收集而来,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,也不参与录制、上传
若本站收录的节目无意侵犯了贵司版权,请发邮件(我们会在3个工作日内删除侵权内容,谢谢。)

www.fs94.org-飞速影视 粤ICP备74369512号