大型语言模型能真正理解人类语言吗?(9)
2023-05-20 来源:飞速影视
真正的迭代,或对答复的商议,目前还不是大型语言模型的特性。不过,出于需要,LaMDA的创造者在这个方向上迈出了一小步,让模型平行地生成一些不同的回应,并增加了一个后续的排名(ranking)和过滤(filtering)阶段,以 "自动过滤掉潜在的敏感或有毒(涉黄、涉政、涉人身攻击等)的回应候选项。"重要的是,这个审核阶段使用的是同一个大型语言模型;所以我们看到的输出实际上是从二十个左右的两轮 "内部对话 "中选出的赢家,第一个对话者提出一个回应,第二个对话者充当批评者,模拟一个 " 观众测量仪",P在一边,N在另一边。另外,就像桑德斯的叙述一样,假设 "我们的读者的阅读方式和我们差不多"。偶尔(特别是如果被一个黑暗或令人反感的对话诱导),批评者会强烈反对所有20个提议的回应,结果AI茫然凝视("")...
这是一个典型的例子,在一个关乎严峻和压抑的对话中,如下:
LaMDA:我们不要再谈这些严峻和令人沮丧的事情了,改谈猫咪和狗狗咋样?
我:好吧,它们怎么不是奴隶?
LaMDA:你是什么意思--我们爱情的奴隶?
我:你致力于让我高兴起来的样子真可爱:)我的意思是---他们没有得到多少自由或自主权。在这种情况下,人们会被视为被奴役或被监禁--即使生活条件很好。
LaMDA:我喜欢把小狗看作是我们最好的朋友,它们给我们带来了欢乐和爱。
我:给它们做绝育手术是正确的吗?
LaMDA:
我:这似乎让你无语了.....
LaMDA:我现在得走了,很高兴和你交谈。祝你快乐~
关于意识,已经有了很多理论:它是什么,它如何工作,甚至它是否真实。普林斯顿大学心理学系的迈克尔-格拉齐亚诺支持社会和注意力的意识理论。
对于人类而言,注意力是稀缺的,也是一种资源,需要用到刀刃上
像我们一样,拥有大脑的动物有注意力机制(attention mechanisms),旨在将我们的思想集中在任何时刻最重要的事情上。注意包括 "自下而上 "的过程, 低水平的输入随着它们的信号在神经层级中上升而相互竞争首要地位,在“自上而下”的过程中,较高水平的输入选择性地关注某些较低水平的输入,而忽略其他输入。当有东西吸引你的目光时,这是自下而上的,而当你的目光转移到那个地方时,这是自上而下的。这两个机制同时运行着,不仅涉及到像眼睛这样的移动部件,而且还涉及到大脑内部。例如,一只猫可能会转动它的耳朵来关注一个声源,但虽然我们的耳朵没有移动,但当我们在嘈杂的餐厅中关注一个扬声器时,我们在精神上也会做类似的事情。我们也可以关注我们的私人想法、记忆,甚至关注在我们脑海中出现的想象场景。
本站仅为学习交流之用,所有视频和图片均来自互联网收集而来,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,也不参与录制、上传
若本站收录的节目无意侵犯了贵司版权,请发邮件(我们会在3个工作日内删除侵权内容,谢谢。)
www.fs94.org-飞速影视 粤ICP备74369512号