认知推理:人工智能的下一个浪潮

  • 时间:
  • 浏览:186
  • 来源:世界杯买球盘口网址app

文丨学术头条

2020 年 3 月 25 日,智源研究院学术副院长、清华大学盘算机系唐杰教授作客首届中科院“先导杯”并行盘算应用大奖赛启动仪式,并为大家带来《人工智能下一个十年》的主题陈诉。

唐老师从人工智能生长的历史开始,深入分析人工智能近十年的生长,论述了人工智能在感知方面取得的重要结果,尤其提到算法是这个感知时代最重要、最具代表性的内容,重点解说了 BERT、ALBERT、MoCo2 等取得快速希望的算法。最后说到下一波人工智能浪潮的兴起,就是实现具有推理、可解释性、认知的人工智能。

近年来,人工智能掀起了第三次浪潮,各个国家纷纷制订了人工智能的生长战略。

在我国,2016 年国务院公布《“十三五”国家科技创新计划》,明确将人工智能作为生长新一代信息技术的主要偏向;2017 年 7 月,国务院颁布《新一代人工智能生长计划》;2017 年 10 月,人工智能被写入“十九大陈诉”;今年,人工智能又作为“新基建”七大领域之一被明确列为重点生长领域。

美国于 2016 年先后公布了《为人工智能的未来做好准备》和《国家人工智能研究与生长战略计划》两份陈诉,将人工智能提升到了国家战略的层面;2018 年,白宫举行人工智能峰会,邀请业界、学术界和政府代表到场,并建立了人工智能特别委员会。日本、德国等多个国家也公布了相关的战略、计划,鼎力大举推进人工智能的生长。

在这个时代配景下,我们需要思量人工智能未来十年会怎样生长。首先,我们需要从人工智能的生长历史中找到灵感。

AI的生长历史

随着克劳德·香农(Claude Shannon)在 1950 年提出盘算机博弈,以及阿兰·图灵(Alan Turing)在 1954 年提出“图灵测试”,人工智能这一观点开始进入人们的视野。

到了 20 世纪 60 年月,人工智能泛起了第一波热潮,生长出了自然语言处置惩罚和人机对话技术。其中的代表性事件是丹尼尔·博布罗(Daniel Bobrow)在 1964 年揭晓的Natural language input for a computer problem solving system,以及约瑟夫·维森鲍姆 (Joseph Weizenbaum) 在 1966 年揭晓的 ELIZA—a computer program for the study of natural language communication between man and machine。

此外,另有一个重要的生长——知识库。1968 年,爱德华·费根鲍姆 (Edward Feigenbaum)提出首个专家系统 DENDRAL 的时候对知识库给出了开端的界说,其中隐含了第二波人工智能浪潮兴起的契机。

之后,人工智能进入了一轮跨度快要十年的隆冬。

20 世纪 80 年月,人工智能进入了第二海浪潮,这其中代表性的事情是 1976 年兰德尔·戴维斯 (Randall Davis)构建和维护的大规模的知识库,1980 年德鲁·麦狄蒙(Drew McDermott)和乔恩·多伊尔(Jon Doyle)提出的非单调逻辑,以及后期泛起的机械人系统。

在 1980 年,汉斯·贝利纳 (Hans Berliner)打造的盘算机战胜双陆棋世界冠军成为标志性事件。随后,基于行为的机械人学在罗德尼·布鲁克斯 (Rodney Brooks)的推动下快速生长,成为人工智能一个重要的生长分支。这其中格瑞·特索罗(Gerry Tesauro)等人打造的自我学习双陆棋法式为厥后的增强学习的生长奠基了基础。

20 世纪 90 年月,AI 泛起了两个很重要的生长:第一项内容是蒂姆·伯纳斯·李(Tim Berners-Lee)在 1998 年提出的语义互联网门路图,即以语义为基础的知识网或知识表达。厥后又泛起了 OWL 语言和其他一些相关知识形貌语言。第二项内容是杰弗里·辛顿(Geoffrey Hinton)等人提出的深度学习,这标志着第三次人工智能浪潮的兴起。

在这次浪潮中,我们也看到许多企业到场其中,如塞巴斯蒂安·特龙(Sebastian Thrun)在谷歌主导推出的自动驾驶汽车,IBM 的沃森(Watson)于 2011 年在《危险边缘》(Jeopardy)中获得冠军,苹果在 2011 年推出的自然语言问答工具 Siri 等。

以上就是人工智能在 60 多年的生长历史中取得的一些标志性结果和技术。

AI近十年的生长

我们再深入分析 AI 近十年的生长,会看到一个重要的标志:人工智能在感知方面取得重要结果。人工智能在语音识别、文本识别、视频识别等方面已经逾越了人类,我们可以说 AI 在感知方面已经逐渐靠近人类的水平。从未来的趋势来看,人工智能将会有一个从感知到认知逐步生长的基本趋势,如下图所示:

首先,我们来看看 AI 在感知方面做了哪些事情。在感知方面,AlphaGo、无人驾驶、文本和图片之间的跨媒体盘算等取得了快速生长。从宏观来看,算法是这个感知时代最重要、最具代表性的内容。如果把最近十年的重要算法举行归类,以深度学习为例举行展示的话,我们可以获得下图所示的生长脉络。

最上面浅紫色部门的内容是以前向网络为代表的深度学习算法。

第二层淡绿色部门的内容表现一个以自学习、自编码为代表的学习时代。

第三层橘色部门的内容代表自循环神经网络(概率图模型的生长)的算法。

最下面粉色部门是以增强学习为代表的生长脉络。

总体来讲,我们可以把深度学习算法归类为这四个脉络,而这四个方面都取得了快速的希望。

如果再深入追溯最近几年最重要的生长,会发现 BERT 是一个典型代表(想深入相识的读者可以阅读https://arxiv.org/pdf/1810.04805.pdf)。以 BERT 为代表的预训练算法获得了快速的生长,基本上所有的算法都接纳了预训练+微调+ Fine tune 的方法,如下图所示:

BERT 在 2018 年年底通过预训练打败了 NLP 上 11 个任务的经典算法;XLNet 在 2019 年提出来通过双向网络的方法凌驾了 BERT (想深入相识的读者可以阅读https://arxiv.org/pdf/1906.08237.pdf),如下图所示:

再厥后,ALBERT 又凌驾了 XLNet 和原始的 BERT(想深入相识的读者可以阅读https://arxiv.org/pdf/1909.11942.pdf)。整个 BERT 的生长引发了后续一系列的事情。

在其他方面,也涌现了许多有代表性的事情。如在 2018 年年底,英伟达通过预训练模型实现高清视频的自动生成。想要相识更多详细信息的读者可以阅读https://arxiv.org/abs/1808.06601。

DeepMind 又把代表性的关联关系生成到 graph_net 中,于是在网络中可以实现一定的推理,其结构如下图所示。想要相识更多信息的读者可以阅读https://arxiv.org/abs/1806.01261。

Facebook 的何恺明等人提出了以 contrastive learning 为基础的 MoCo 及 MoCo2,在许多无监视学习(Unsupervised learning)的效果上凌驾了监视学习(Supervised learning),这是一个很是重要的希望,这也标志着预训练到达了一个新的高度。想要相识更多信息的读者可以阅读https://arxiv.org/abs/1911.05722。

杰弗里·辛顿等人使用 SimCLR,通过简化版的 contrastive learning 凌驾了 MoCo,厥后 MoCo2 又宣称凌驾了 SimCLR,想要相识更多信息的读者可以阅读https://arxiv.org/abs/2002.05709。

总体来看,在算法的时代,预训练算法取得了快速的希望。那么未来十年,AI 将何去何从?

展望未来十年

这里,我想引用张钹院士提出来的第三代人工智能的理论体系。

2015 年,张钹院士提出第三代人工智能体系的雏形。

2017 年,DARPA 提倡 XAI 项目,焦点思想是从可解释的机械学习系统、人机交互技术以及可解释的心理学理论三个方面,全面开展可解释性 AI 系统的研究。

2018 年底,正式公然提出第三代人工智能的理论框架体系,焦点思想为:

建设可解释、鲁棒性的人工智能理论和方法。

生长宁静、可靠、可信及可扩展的人工智能技术。

推感人工智能创新应用。

其中详细实施的门路图如下:

与脑科学融合,生长脑启发的人工智能理论。

数据与知识融合的人工智能理论与方法。

在这个思想框架下,我们做了一定的深入研究,我们称之为认知图谱。其焦点观点是知识图谱+认知推理+逻辑表达。

下面展开解释一下。

知识图谱大家很熟悉,是谷歌在 2012 年提出来的。这其中有两个重磅的图灵奖获得者:一个是爱德华·费根鲍姆(1994 年图灵奖得主),他在 20 世界 60 年月就提出来了知识库的一些理论体系和框架;另一个是 1994 年蒂姆·伯纳斯·李(2016 年图灵奖得主、WWW 的首创人、语义网络的首创人)。这内里除了知识工程、专家系统,另有一个代表性的系统 CYC,CYC 可以说是历史上连续时间最长的项目,从 1985 年开始,这个项目直到现在还一直在连续。

说完了知识图谱,我们来说一下认知图谱。

相信许多人对认知图谱都比力生疏,这里我们举一个例子来说明一下。如果我们要解决一个问题“找到一个 2003 年在洛杉矶的 Quality 咖啡馆拍过影戏的导演(Who is the director of the 2003 film which has scenes in it filmed at The Quality Cafe in Los Angeles)”。如果是人来解决这个问题的话,可能是先追溯相关的文档,如 Quality 咖啡馆的先容文档,洛杉矶的维基百科页面等,我们可能会从中找到相关的影戏,如 Old School ,在这个影戏的先容文档内里,我们可能会进一步找到该影戏的导演 Todd Phillips,经由比对影戏的拍摄时间是 2003 年,最终确定谜底是 Todd Phillips,详细流程如下图所示:

当我们用传统算法(如 BIDAF, BERT, XLNet)举行解决的时候,盘算机可能只会找到局部的片段,仍然缺乏一个在知识层面上的推理能力,这是盘算机很欠缺的。人在这方面具有优势,而盘算机缺乏类似的能力。

人在解决上述问题的历程中存在推理路径、推理节点,而且能明白整个历程,而 AI 系统,特别是在当下的 AI 系统中,深度学习算法将大部门这类问题都看作是一个黑盒子,如下图所示:

怎么办呢?对此,我们提出了“认知图谱”这个观点,我们希望用知识表现、推理和决议,包罗人的认知来解决上述问题,其基本结构如下:

这个基本的思想是联合认知科学中的双通原理论。在人脑的认知系统中存在两个系统:System 1 和 System 2,如下图所示。System 1 是一个直觉系统,它可以通过人对相关信息的一个直觉匹配寻找谜底,它是很是快速、简朴的;而 System 2 是一个分析系统,它通过一定的推理、逻辑找到谜底。

在去年的 NIPS 上,图灵奖获得者 Bengio 在大会主旨陈诉的 Keynote 也提到,System 1 到 System 2 的认知是深度学习未来生长的重要的偏向,如下图所示:

因此,我们或许用这个思路构建了这个新的、我们称为认知图谱的这样一个方法。在 System 1 中我们主要做知识的扩展,在 System 2 中我们做逻辑推理和决议,如下图所示:

可以看到,我们在 System 1 中做知识的扩展,好比说针对前面的问题,我们首先找到相关的影片,然后用 System 2 来做决议。如果是尺度谜底,就竣事整个推理的历程。如果不是尺度谜底,而相应的信息又有用,我们就把它作为一个有用信息提供应 System 1,System 1 继续做知识的扩展,System 2 再来做决议,直到最终找到谜底。

现在,在这两个系统中,System 1 是一个直觉系统,我们用 BERT 来实现,实现了以后,我们就可以做相关的信息的匹配;System 2 就用一个图卷积网络来实现,在图卷积网络中可以做一定的推理和决议。通过这个思路,我们就可以实现一定的推理+决议。

这是一个总体的思路,要真正实现知识和推理,其实还需要万亿级的知识知识库的支持,如下图所示。也就是说,四五十年前费根鲍姆做过的事情,也许我们现在要重做一遍,可是我们要做到更大规模的知识知识图谱,而且用这样的方法,用这样的知识知识图谱来支撑上面的深度学习的盘算,这样才气真正实现未来的 AI。

所以说,这一代人工智能浪潮也许到终点还是没有推理能力,没有可解释能力。而下一波人工智能浪潮的兴起,就是实现具有推理、具有可解释性、具有认知的人工智能,我们认为这是 AI 下一个 10 年要生长、也一定会生长的一个重要偏向。

这里我列出来了相关的文章,大家感兴趣的话可以看一下。想要相识更多内容,可以登录http://keg.cs.tsinghua.edu.cn/jietang。

Ming Ding, Chang Zhou, Qibin Chen, Hongxia Yang, and Jie Tang. Cognitive Graph for Multi-Hop Reading Comprehension at Scale. ACL’19.

Jie Zhang, Yuxiao Dong, Yan Wang, Jie Tang, and Ming Ding. ProNE: Fast and Scalable Network Representation Learning. IJCAI’19.

Yukuo Cen, Xu Zou, Jianwei Zhang, Hongxia Yang, Jingren Zhou and Jie Tang. Representation Learning for Attributed Multiplex Heterogeneous Network. KDD’19.

Fanjin Zhang, Xiao Liu, Jie Tang, Yuxiao Dong, Peiran Yao, Jie Zhang, Xiaotao Gu, Yan Wang, Bin Shao, Rui Li, and Kuansan Wang. OAG: Toward Linking Large-scale Heterogeneous Entity Graphs. KDD’19.

Qibin Chen, Junyang Lin, Yichang Zhang, Hongxia Yang, Jingren Zhou and Jie Tang. Towards Knowledge-Based Personalized Product Description Generation in E-commerce. KDD'19.

Yifeng Zhao, Xiangwei Wang, Hongxia Yang, Le Song, and Jie Tang. Large Scale Evolving Graphs with Burst Detection. IJCAI’19.

Yu Han, Jie Tang, and Qian Chen. Network Embedding under Partial Monitoring for Evolving Networks. IJCAI’19.

Yifeng Zhao, Xiangwei Wang, Hongxia Yang, Le Song, and Jie Tang. Large Scale Evolving Graphs with Burst Detection. IJCAI’19.

Jiezhong Qiu, Yuxiao Dong, Hao Ma, Jian Li, Chi Wang, Kuansan Wang, and Jie Tang. NetSMF: Large-Scale Network Embedding as Sparse Matrix Factorization. WWW'19.

Jiezhong Qiu, Jian Tang, Hao Ma, Yuxiao Dong, Kuansan Wang, and Jie Tang. DeepInf: Modeling Influence Locality in Large Social Networks. KDD’18.

Jiezhong Qiu, Yuxiao Dong, Hao Ma, Jian Li, Kuansan Wang, and Jie Tang. Network Embedding as Matrix Factorization: Unifying DeepWalk, LINE, PTE, and node2vec. WSDM’18.

Jie Tang, Jing Zhang, Limin Yao, Juanzi Li, Li Zhang, and Zhong Su. ArnetMiner: Extraction and Mining of Academic Social Networks. KDD’08.

更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App