学一个忘一个?人工智能遭遇“灾难性遗忘”,解决方案治标不治本……

  • 时间:
  • 浏览:310
  • 来源:世界杯买球盘口网址app

◎ 通讯员 欧阳桂莲 许晓凤 王忆希

经由一个寒假返回学校,你可能才会忘了前一学期学到的内容。而如果你像人工智能系统那样学习,实际上你会在学习新知识的同时,大脑便逐渐遗忘之前的内容,其原因就在于人工智能遭遇了“灾难性遗忘”。

克日,来自谷歌大脑的最新研究发现,在街机学习情况的由多个子任务组成的单任务场景中也存在着“灾难性遗忘”。特别像在蒙特祖玛的复仇这种探索型游戏里,场景变化较大,也会泛起学习完当前游戏场景后,忘记上一个游戏场景知识的情况。

人工智能为什么会发生“灾难性遗忘”?现在,解决灾难性遗忘的方案有哪些?难点在哪?就此,科技日报记者采访了有关专家。

学一个忘一个,深度学习效率低下

自从阿尔法狗相继战胜多名围棋冠军后,深度强化学习成为人工智能领域最耀眼的“明星”,也是各大研发机构角逐的主战场。而谷歌大脑团队这次面临的“灾难性遗忘”,正是人工智能深度学习中一个普遍且严重的问题。

“‘灾难性遗忘’指的是人工智能系统,如深度学习模型,在学习新任务或适应新情况时,忘记或丧失了以前习得的一些能力。”腾讯人工智能实验室副主任俞栋博士在接受科技日报记者采访时说,“灾难性遗忘”会造成人工智能系统在原有任务或情况性能大幅下降。

美亚柏科信息中心总司理魏朝东说,在深度神经网络学习差别任务的时候,相关权重的快速变化会损害先前任务的体现,通俗来说,就是在学习中像猴子搬苞谷,捡一个丢一个,记着了新知识,也有可能会忘掉了老知识。

正源于此,“灾难性遗忘”的存在,一定水平上限制了人工智能在一些场景中的应用。

福州大学数学与盘算机科学学院、福建省新媒体行业技术开发基地副主任柯逍博士举例说,如一个AI图像识别系统,当需要添加一个新的种别的物体时,就不得不把原先的所有物体都再学习一次;或在文物判定系统中,当有一天发现原始数据中有一个文物朝代错了,同样没措施单独对这一个错误的文物举行修改学习;再如,让AI系统学习英语之后,再让它学习德语,它可能会把原来学习的英语语法全部忘光。

而在谷歌大脑的最新研究的游戏场景中,“灾难性遗忘”又造成了哪些影响?有何新颖的发现?

“除了传统新知识学习会笼罩旧知识之外,谷歌大脑还发现,在如超级玛丽等探索型游戏里,‘灾难性遗忘’会阻碍模型对新知识的学习。”厦门大学人工智能系、科技处副处长纪荣嵘教授说。

纪荣嵘进一步解释说,面向街机游戏学习的强化学习方法都市接纳“履历回放”的训练方式,就是将模型在游戏探索时候的片段举行生存,然后给模型举行“回放”训练。而像蒙特祖玛复仇这种游戏,游戏场景变化比力大,模型需要不中断探索游戏场景,因此,在训练时候就必须不停回放早期场景的游戏履历,否则会因为“灾难性遗忘”而忘记了早期的游戏知识。

“这也导致了,新的游戏履历虽然能够被采样到“履历回放”库里,但因为学习方式的设定,导致学习效率低,同时由于差别阶段的学习会相互滋扰,使得AI无法一次通过该游戏的全部关卡。”纪荣嵘说。

AI“脑容量”存上限,新旧知识难共存

AI为什么会发生“灾难性遗忘”?

“深度学习的结构一旦确定,在训练历程中很难调整。神经网络的结构直接决议学习模型的容量。”柯逍说,AI“脑容量”存在上限,也就导致了人工智能只能有限地处置惩罚特定任务。就像水桶一半高的地方有个洞,以至于无论怎么增加水桶的高度,这个水桶只能装一半高的水。

中科院自动化所脑网络组研究中心研究员、模式识别国家重点实验室副主任余山指出,这还涉及到神经网络学习知识的机制。在单个任务的训练历程中,网络中各个神经元之间的毗连权重举行了专门的调整,以胜任当前的任务。而在新任务的训练中,毗连权重要针对新任务举行调整,这将“抹去”适应旧任务的原有结构,导致在旧任务上的性能大大下降。

人类的影象能力其实是有限的,但为何泛起“灾难性遗忘”情况却比力小?“主要是人类在学习历程当中,大脑能够主动保留些有用的知识和技巧,同时不影响新的信息获取。” 纪荣嵘说,但现在的人工智能模型大部门是基于随机梯度下降来更新模型参数,这个历程主要服务于当前任务的优化,并不会去评估哪些参数权重对旧的知识是有用的,所以就很容易泛起知识被笼罩的情况。

纪荣嵘也表现,当前像Siri或小爱这样的人工智能助手产物,还不能算真正意义上的通用人工智能,一方面,这些人工智能助手只能在预设的知识规模内和人类互动,完成指令;另一方面,人类没措施像养宠物或养小孩一样,通过互动去教诲这些人工智能助手学习新的知识或新的指令。

多个解决方案“治标不治本”

据相识,“破解灾难性遗忘”是实现通用人工智能的一个关键。解决了“灾难性遗忘”问题后,模型就能具备连续学习的能力, 可以像人类一样不停获取新的知识、新的技术,同时能够最大化地保持旧的履历知识和技巧。

那么,现在解决“灾难性遗忘”的方案有哪些?

“最常见的方式是多任务学习, 就是把所有任务的训练数据同时放到一起,模型就可以针对多种任务举行团结优化。”纪荣嵘举例说,如让模型同时学习坦克大战和超级玛丽两个任务,等两个任务同时学的差不多的时候,模型才停止训练。

但柯逍也指出,这种方式随着任务增多,新任务样本数量被稀释,训练会拖慢学习新知识的效率,而且,不是任何情况都能获得先前任务的数据来温习的。

另有的解决方案是凭据新的任务知识来扩充模型结构,保证旧的知识履历不被损害。此次,谷歌大脑所提出的“影象碎片视察”方法正是对差别任务(场景)构建多小我私家工智能模型来举行学习。“模型扩充的方式从本质上并没有解决灾难性遗忘的问题,只是用多个模型来替代单个模型去学习多种任务,制止旧参数被笼罩。”纪荣嵘说。

当前,解决灾难性遗忘还存在着一对矛盾:在学习新任务的历程中,需要给予网络足够多的自由度举行毗连权重调整,可是又要制止这样的调整“抹去”原有的影象。

“因此,科学家们开始设计新的学习算法解决上述矛盾,使得网络在举行权重调整的时候,对已有知识的影响最小化。”余山表现,其团队近期提出的正交权重修改算法,就属于这类,主要通过限制权重修改只能在旧任务的解空间中举行,这一算法较好的克服了灾难性遗忘,使得同一个分类器网络可以一连的学习多达数千个种别的识别。

魏朝东认为,虽然现在科学家们已经探索出多种解决方案,但现在的AI只从认知科学中获得了一小部门灵感,对大脑的模拟还没到达人们想象的高度,大部门AI方案在这方面是“先天不足”的。解决“灾难性遗忘”是一个综合性问题,不仅需要有理论支撑,未来还需要有可行的技术手段去实现。

泉源:科技日报

编辑:张爽

审核:管晶晶

终审:冷文生