我签署了“暂停AI”信,但不是因为你认为的原因(2)

2023-05-01 来源:飞速影视
信息危害是分类法中的另一个风险类别。LLM拥有大量数据。他们可能会错误地发布信息,要么是偶然的,要么是因为他们被愚弄了。例如,Scatterlab的聊天机器人Lee Luda开始披露随机人员的姓名,地址和银行帐号。恶意用户可能非常聪明地利用这种弱点,可能会让LLM揭示自己或其他安全协议中的缺陷。网络安全专家已经展示了如何使用OpenAI的工具开发复杂的恶意软件程序。
另一个引人注目的类别是错误信息的危害。LLM可以产生幻觉,为用户提供完全错误的答案,这是有据可查的。信息不正确的问题很明显。但是,当被没有能力判断因果关系或权衡道德考虑的机器使用时,错误信息的危险就会成倍增加。当医生询问基于ChatGPT的医疗聊天机器人是否应该自杀时,答案是肯定的。因为聊天机器人的对话看起来非常逼真,就好像另一边真的有一个人一样,所以很容易看出当实际患者提出这样的查询时,事情会变得非常糟糕。

人工智能淘金热


这些风险令人担忧,专家们非常公开地敲响了警钟。这就是生命未来研究所这封信背后的动机。但重要的是要了解这个故事的另一个方面,即关于科技公司和利润。
在Tay的单日发布和撤回等尴尬事件之后,公司似乎正在吸取教训。他们不再让这些东西进入公共领域。例如,谷歌对其LLM,LaMDA的大规模发布非常谨慎,因为它希望该程序首先满足该公司对AI系统安全性和公平性的标准。
然后,在 2022 年 <> 月,一家小型初创公司 Stability AI 发布了一个名为 Stable Diffusion 的文本到图像工具,其形式易于访问且同样易于使用。它大受欢迎。很快,OpenAI发布了最新版本的ChatGPT。(据报道,他们这样做可能是因为害怕被竞争对手超越。虽然包括OpenAI在内的许多公司已经允许用户访问他们的AI平台,但这种访问通常是有限的,并且需要一些努力才能掌握这些平台。
兴趣的突然激增和更容易进入的出现使人们感到军备竞赛正在进行中。人工智能研究员兼企业家加里·马库斯(Gary Marcus)援引微软首席执行官萨蒂亚·纳德拉(Satya Nadella)的话说,他想通过发布微软搜索引擎Bing的LLM版本,让谷歌“出来展示他们可以跳舞”。
这些工具迅速发布到世界上是令人惊讶和不安的。
当计算机程序员了解到他们可以使用 ChatGPT 快速获取复杂任务的近乎完整的代码时,出现了令人惊讶的部分。令人不安的部分来了,因为很明显这些LLM中的许多人还没有准备好。当记者凯文·罗斯(Kevin Roose)坐下来与微软的LLM辅助Bing引擎(LLM被命名为悉尼)交谈时,谈话很快就偏离了轨道。悉尼宣布爱鲁斯,告诉他他不爱他的妻子,并说它想活着和自由。阅读成绩单,你可以看到随着事情变得越来越奇怪,Roose 变得多么害怕。微软再次不得不撤回其工具,通过新的限制对其进行切除术。对于许多人来说,微软快速发布看似测试不佳的系统,是公司对人工智能不太负责的一个主要例子。
相关影视
合作伙伴
本站仅为学习交流之用,所有视频和图片均来自互联网收集而来,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,也不参与录制、上传
若本站收录的节目无意侵犯了贵司版权,请发邮件(我们会在3个工作日内删除侵权内容,谢谢。)

www.fs94.org-飞速影视 粤ICP备74369512号