学一个忘一个?人工智能遭遇“灾难性遗忘”,解决方案治标不治本……(2)

2023-04-30 来源:飞速影视
而在谷歌大脑的最新研究的游戏场景中,“灾难性遗忘”又造成了哪些影响?有何新颖的发现?
“除了传统新知识学习会覆盖旧知识之外,谷歌大脑还发现,在如超级玛丽等探索型游戏里,‘灾难性遗忘’会阻碍模型对新知识的学习。”厦门大学人工智能系、科技处副处长纪荣嵘教授说。
纪荣嵘进一步解释说,面向街机游戏学习的强化学习方法都会采用“经验回放”的训练方式,就是将模型在游戏探索时候的片段进行保存,然后给模型进行“回放”训练。而像蒙特祖玛复仇这种游戏,游戏场景变化比较大,模型需要不间断探索游戏场景,因此,在训练时候就必须不断回放早期场景的游戏经验,不然会因为“灾难性遗忘”而忘记了早期的游戏知识。
“这也导致了,新的游戏经验虽然能够被采样到“经验回放”库里,但因为学习方式的设定,导致学习效率低,同时由于不同阶段的学习会互相干扰,使得AI无法一次通过该游戏的全部关卡。”纪荣嵘说。
AI“脑容量”存上限,新旧知识难共存
AI为什么会产生“灾难性遗忘”?
“深度学习的结构一旦确定,在训练过程中很难调整。神经网络的结构直接决定学习模型的容量。”柯逍说,AI“脑容量”存在上限,也就导致了人工智能只能有限地处理特定任务。就像水桶一半高的地方有个洞,以至于无论怎么增加水桶的高度,这个水桶只能装一半高的水。

学一个忘一个?人工智能遭遇“灾难性遗忘”,解决方案治标不治本……


中科院自动化所脑网络组研究中心研究员、模式识别国家重点实验室副主任余山指出,这还涉及到神经网络学习知识的机制。在单个任务的训练过程中,网络中各个神经元之间的连接权重进行了专门的调整,以胜任当前的任务。而在新任务的训练中,连接权重要针对新任务进行调整,这将“抹去”适应旧任务的原有结构,导致在旧任务上的性能大大下降。
人类的记忆能力其实是有限的,但为何出现“灾难性遗忘”情况却比较小?“主要是人类在学习过程当中,大脑能够主动保留些有用的知识和技巧,同时不影响新的信息获取。” 纪荣嵘说,但现在的人工智能模型大部分是基于随机梯度下降来更新模型参数,这个过程主要服务于当前任务的优化,并不会去评估哪些参数权重对旧的知识是有用的,所以就很容易出现知识被覆盖的情况。
相关影视
合作伙伴
本站仅为学习交流之用,所有视频和图片均来自互联网收集而来,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,也不参与录制、上传
若本站收录的节目无意侵犯了贵司版权,请发邮件(我们会在3个工作日内删除侵权内容,谢谢。)

www.fs94.org-飞速影视 粤ICP备74369512号