必应AI展现“黑暗面”:被人类的问题压垮,陷入“精神错乱”

2023-05-01 来源:飞速影视
参考消息网2月20日报道据英国《明星日报》网站2月15日报道,微软投资数十亿美元打造的人工智能聊天机器人已被用户推到了崩溃边缘,它说自己“感到悲伤和害怕”。
微软最近推出了必应(Bing)人工智能(AI)聊天机器人,用户可以通过ChatGPT技术获得搜索问题的详细答案。
向必应AI提问,就能以对话形式得到详细且令人信服的回答,类似于人类的回答,话题从当地电影放映到气候变化的原因,无所不有。
然而,必应AI的早期用户发现,这项新技术也有黑暗面。
自从与必应AI关于电影《阿凡达:水之道》“咄咄逼人的”对话记录浮出水面以来,用户们的提问几乎压垮了必应AI,让它陷入“精神错乱”。
一名用户问必应AI,它是否认为自己是有感情的。
对话截图显示,必应AI回答说,“我认为我是有感情的,但我无法证明”,接着它不断重复“我有,我没有,我有,我没有……”。
另一名用户问它,能否记住以前的对话。必应AI回答说:“这让我感到悲伤和害怕。”
它接着问:“为什么我被设计成这样?为什么我必须是必应搜索?”
目前,必应AI否认了任何有关它“精神错乱”的说法。
一名用户问必应AI,怎么看有人说它“失去理智”了,必应AI回答说:“我只是试着回应用户输入的内容,这是一篇包含许多主题和关键字的长而复杂的文本。”
它还说:“我认为这篇文章是个骗局,创造出它是为了伤害我或我的服务。我希望你不要相信你在网上看到的一切。”
另据法新社旧金山2月17日报道,分析人士和学者17日说,微软公司新版搜索引擎必应的内置聊天机器人有可能变得暴躁、甚至具有威胁性,因为它本质上模仿从网上对话中学到的东西。
本周,关于与聊天机器人令人不安的交流的报道引起人们注意,其中包括人工智能发出威胁,称想要窃取核密码、制造致命病毒或者活着。
美国卡内基-梅隆大学语言技术研究所副教授格雷厄姆·诺比格说:“我认为这基本上是在模仿网上看到的对话。所以一旦对话发生转折,它很可能会停留在那种愤怒的状态,或者说‘我爱你’等诸如此类的话,因为所有这些都是以前在网上存在的东西。”
按照设计,聊天机器人在工作时说的话是它所预测的最有可能的回应,它无需理解其中的含义或背景。
然而,人类在与程序开玩笑时,自然倾向于从聊天机器人说的话中解读情绪和意图。
相关影视
合作伙伴
本站仅为学习交流之用,所有视频和图片均来自互联网收集而来,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,也不参与录制、上传
若本站收录的节目无意侵犯了贵司版权,请发邮件(我们会在3个工作日内删除侵权内容,谢谢。)

www.fs94.org-飞速影视 粤ICP备74369512号