人工智能还没有接近有知觉——真正的危险在于很容易将它拟人化(2)
2023-04-24 来源:飞速影视
但这些担忧——至少就大型语言模型而言——是没有根据的。ChatGPT 和类似技术是复杂的句子补全应用程序——仅此而已。他们不可思议的反应取决于人类的可预测性,如果一个人有足够的关于我们沟通方式的数据。
虽然鲁斯对他与悉尼的交流感到震惊,但他知道这次谈话并不是新兴的合成思维的结果。悉尼的回应反映了其训练数据的毒性——基本上是互联网的大片——而不是像弗兰肯斯坦那样第一次激起数字怪物的证据。
新的聊天机器人很可能通过图灵测试,图灵测试以英国数学家艾伦·图灵(Alan Turing)的名字命名,他曾经提出,如果一个人无法从另一个人的反应中分辨出机器的反应,那么机器可能会说是“思考”。
但这不是知觉的证据;这只是图灵测试并不像曾经假设的那样有用的证据。
然而,我认为机器感知的问题是一个红鲱鱼。
即使聊天机器人不仅仅是花哨的自动完成机器——而且它们远非如此——科学家们也需要一段时间才能弄清楚它们是否已经变得有意识。目前,哲学家们甚至无法就如何解释人类意识达成一致。
对我来说,紧迫的问题不是机器是否是有知觉的,而是为什么我们很容易想象它们是有知觉的。
换句话说,真正的问题是人们将人类特征拟人化或投射到我们的技术上的难易程度,而不是机器的实际人格。
拟人化的倾向
很容易想象其他必应用户要求悉尼就重要的生活决定提供指导,甚至可能对此产生情感依恋。越来越多的人可以开始将机器人视为朋友甚至浪漫的伴侣,就像西奥多·托姆布利(Theodore Twombly)爱上了斯派克·琼斯(Spike Jonze)电影《她》(Her)中的人工智能虚拟助手萨曼莎(Samantha)一样。
毕竟,人们倾向于拟人化,或将人类的品质归因于非人类。我们为我们的船命名和大风暴;我们中的一些人与我们的宠物交谈,告诉自己我们的情感生活模仿自己的生活。
在日本,机器人经常用于老年人护理,老年人对机器产生依恋,有时将它们视为自己的孩子。请注意,这些机器人很难与人类混淆:它们既不像人,也不像人说话。
考虑一下,随着外观和声音的人类系统的引入,拟人化的倾向和诱惑会变得多么大。
这种可能性指日可待。像ChatGPT这样的大型语言模型已经被用于为人形机器人提供动力,例如英国工程艺术公司正在开发的Ameca机器人。《经济学人》的技术播客Babbage最近对ChatGPT驱动的Ameca进行了采访。机器人的反应虽然偶尔有点断断续续,但令人难以置信。
本站仅为学习交流之用,所有视频和图片均来自互联网收集而来,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,也不参与录制、上传
若本站收录的节目无意侵犯了贵司版权,请发邮件(我们会在3个工作日内删除侵权内容,谢谢。)
www.fs94.org-飞速影视 粤ICP备74369512号