人工智能即将爆发(8)
2023-12-21 来源:飞速影视
回看地球生命的演化之路,我们可以看到大部分的生命都经历了这样的历程:物种出现,存在了一段时间,然后不可避免地跌落生命的进化线,跌入灭绝的深渊,我们称之为自然选择。
生命其实是非常脆弱的,至今为止,地球上存在过的生物,99.9%都已经被自然淘汰了。现存的物种继续在生命的平衡木上走,似乎早晚也会有一阵风把它吹下去。
预测地球上“所有物种终将灭绝”就像断定“所有人都会死”一样靠谱,甚至包括外星文明(假设存在的话)。我们发现宇宙对于生命是如此苛刻,任何文明的存在和发展,都是一个奇迹。至今人类还没寻找到外星文明,也没有发现外星人光顾地球的证据,表明宇宙中生命存在之稀罕,似乎地球文明是宇宙中孤零零的存在。
有人提出了文明的“大过滤器”学说。我们人类之所以感觉如此孤单,是因为其他生命文明都被过滤淘汰了。那么,当下一个过滤器来时,比如太阳老化、小行星撞地球、超星系爆发、人类自身核战,就要问了:人类文明能否通过下一次过滤网而不灭绝?
但是超人工智能的存在,上面这些生死存亡的大过滤器问题,都变成了小case。超级智能可以帮助人类和其它物种,达到另一个生命的吸引态——永生。
Bostrom认为物种的永生和灭绝一样都是吸引态,也就是一旦我们达成了永生,将永远不再面临灭绝的危险——我们战胜了死亡和几率。
虽然地球上绝大多数物种都从生命平衡木上摔下去灭绝了,宇宙大过滤器学说也表明宇宙其他文明似乎迟早也要被过滤淘汰出局。但是,如果地球上的生命足够聪明,发展到了超级智能,则有可能实现永生。
宇宙对生命条件之苛刻,注定碳基生命将非常脆弱。有人认为AI的出现,就是为实现碳基生命向更强的硅基生命过渡。只不过硅基生命好像没有办法自己演化,他们需要人类作为引导,才能降临。
所以马斯克曾说:碳基文明也许是硅基文明的引导程序。
这时,作为“物种主义者”,面对碳基生命人类的未来,我们不得不考虑超人工智能究竟是天堂还是地狱,人类是不是将被灭绝?
显然,超人工智能有把人类灭绝的能力,这就是为什么这个世界上最聪明的一群人会很担忧。霍金说人工智能会毁灭人类,马斯克担心我们研究人工智能是在召唤恶魔。
为什么那么多专家担心人工智能是对人类最大的威胁?因为我们在创造超人工智能时,是在创造一个会改变所有事情的智能,但是我们对那个领域却完全不清楚,我们不能理解超人工智能会发生什么。
本站仅为学习交流之用,所有视频和图片均来自互联网收集而来,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,也不参与录制、上传
若本站收录的节目无意侵犯了贵司版权,请发邮件(我们会在3个工作日内删除侵权内容,谢谢。)
www.fs94.org-飞速影视 粤ICP备74369512号