大型语言模型能真正理解人类语言吗?(11)
2023-05-20 来源:飞速影视
* 复杂的序列学习,如音乐、舞蹈和许多涉及步骤的工艺所证明的那样
* 复杂的语言
* 对话
* 推理
* 社会学习和认知
* 长期规划
* 心智理论
* 意识
虽然听起来很反常,但复杂序列学习可能是破解所有其他问题的关键。这将解释我们在大型语言模型中看到的令人惊讶的能力,归根结底,这些模型不过是复杂序列学习器(complex sequence learners)。反过来,注意力已被证明是在神经网络中实现复杂序列学习的关键机制,正如介绍transformer模型的论文标题所暗示的那样,该模型的继承者为今天的大型语言模型提供了取之不竭的动力:"注意力(机制)是你所需要的一切 (Attention is all you need)"。
即使上述内容在你听来,就像在我听来一样,像是对意识存在的一个令人信服的解释,甚至可能是对意识如何运作的一个简述,你也可能发现自己并不满意这种解释。那么它是如何觉知的呢?斯坦福大学的科学史学家杰西卡-里斯金(Jessica Riskin)描述了这个问题的真正难点,正如计算先驱阿兰-图灵和马克斯-纽曼所阐述的那样:
在被要求定义思维本身,而不是其外在表现时,图灵估计他除了说它是 "一种在我脑中进行的嗡嗡声 "之外,不能说得更多。最终,确定机器可以思考的唯一方法是 "成为机器并感觉自己在思考"。但这种方式是唯心主义,而不是科学。图灵认为,从外面看,只要人们还没有发现它的所有行为规则,一个东西就可以看起来很聪明。因此,要使一台机器看起来有智慧,至少其内部运作的一些细节必须保持未知。
...
图灵认为,关于智能的内部机制的科学不仅在方法上有问题,而且在本质上也是自相矛盾的,因为任何智能的外在表现在这种描述面前都会蒸发掉。纽曼对此表示赞同,他用Ravenna美丽的古代马赛克作了一个比喻。如果你仔细观察这些作品,你可能会倾向于说:"为什么,它们根本不是真正的图画,而只是许多小的彩色石头,中间有水泥。" 智能思维同样可以是简单操作的马赛克,当近距离研究时,就会消失在其机械部分。
当然,考虑到我们自己的感知和认知的局限性,以及考虑到心智马赛克的巨大尺寸,我们不可能放大看到整个画面,并同时看到每一块石头。
本站仅为学习交流之用,所有视频和图片均来自互联网收集而来,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,也不参与录制、上传
若本站收录的节目无意侵犯了贵司版权,请发邮件(我们会在3个工作日内删除侵权内容,谢谢。)
www.fs94.org-飞速影视 粤ICP备74369512号