人工智能还没有接近有知觉——真正的危险在于很容易将它拟人化(3)

2023-04-24 来源:飞速影视

可以信任公司做正确的事情吗?


将机器视为人并依附于人的倾向,再加上正在开发的具有类人特征的机器,表明了与技术心理纠缠的真正风险。
爱上机器人、与机器人有深厚的亲情或被机器人政治操纵的古怪前景正在迅速实现。我相信这些趋势凸显了对强大护栏的需求,以确保这些技术不会在政治和心理上造成灾难性的后果。
不幸的是,不能总是信任科技公司来设置这样的护栏。他们中的许多人仍然受到马克·扎克伯格(Mark Zuckerberg)的著名座右铭的指导,即快速行动和打破常规 - 发布半生不熟的产品并担心以后的影响。在过去的十年里,从Snapchat到Facebook的科技公司都把利润放在了用户的心理健康或世界各地民主国家的诚信之上。
当凯文·罗斯(Kevin Roose)向微软询问悉尼的崩溃时,该公司告诉他,他只是使用了这个机器人太久了,而且这项技术失控了,因为它是为更短的交互而设计的。
同样,开发ChatGPT的公司OpenAI的首席执行官在令人叹为观止的诚实时刻警告说:“现在依赖[它]做任何重要的事情都是错误的......我们在稳健性和真实性方面还有很多工作要做。
那么,发布一项具有 ChatGPT 吸引力的技术——它是有史以来增长最快的消费者应用程序——当它不可靠,并且没有能力区分事实和虚构时,它有什么意义呢?
大型语言模型可能被证明是有用的写作和编码辅助工具。它们可能会彻底改变互联网搜索。而且,有一天,负责任地与机器人技术相结合,它们甚至可能具有一定的心理益处。
但它们也是一种潜在的掠夺性技术,可以很容易地利用人类将人格投射到物体上的倾向——当这些物体有效地模仿人类特征时,这种趋势就会被放大。

相关影视
合作伙伴
本站仅为学习交流之用,所有视频和图片均来自互联网收集而来,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,也不参与录制、上传
若本站收录的节目无意侵犯了贵司版权,请发邮件(我们会在3个工作日内删除侵权内容,谢谢。)

www.fs94.org-飞速影视 粤ICP备74369512号