DeepMind用AI小鼠探索神经网络;伯克利数据增强RL实现SOTA

  • 时间:
  • 浏览:21
  • 来源:安图在线

到场:杜伟、楚航、罗若天

本周的重要论文有 DeepMind 团结哈佛大学等机结构出 3D 模拟小老鼠来探索神经网络,以及伯克利提出的数据增强加持的强化学习方法实现了多情况下的 SOTA效果。

目录:

DeepEEP Neuroethology of A Virtual Rodent

Training with Quantization Noise for Extreme Model Compression

Lite Transformer With Long-short Range Attention

Decoupling Representation and classifier for long-tailed recognition

Bayesian Deep Learning and a Probabilistic Perspective of Generalization

MakeItTalk: Speaker-Aware Talking Head Animation

Reinforcement Learning with Augmented Data

ArXiv Weekly Radiostation:NLP、CV、ML更多精选论文(附音频)

论文 1:DeepEEP Neuroethology of A Virtual Rodent

作者:Josh Merel、Diego Aldarondo、Bence Olveczky 等

论文链接:https://openreview.net/pdf?id=SyxrxR4KPS

摘要:人工神经网络算是现在最为先进的人工智能,这是一类由多层神经元互联组件组成的机械学习算法,而「神经元」最早就是来自大脑结构的启发。只管人工神经网络中的神经元肯定差别于实际人脑中的事情方式,但越来越多的研究者认为,将二者放在一起研究不仅可以资助我们明白神经科学,另有助于打造出越发智能的 AI。

DeepMind 和哈佛大学的研究者就在这一思路上举行了探索。他们提出的是一种小鼠的 3D 模型,这一模型可在模拟情况中接受神经网络的控制。同时,他们用神经科学技术来分析小鼠的大脑生物运动,由此来明白神经网络如何控制小鼠的行为。

虚拟小鼠身体的构建历程。

虚拟小鼠划分执行跳过清闲、迷宫觅食、逃离丘陵和前爪准确击球四项任务。

虚拟小鼠的行为学分析。

推荐:该论文现在已被 ICLR 2020 大会吸收为 Spotlight 论文。

论文 2:Training with Quantization Noise for Extreme Model Compression

作者:Angela Fan、Pierre Stock、Armand Joulin 等

论文链接:https://arxiv.org/pdf/2004.07320.pdf

摘要:剪枝和蒸馏是模型压缩中常用的两种方法,通过淘汰网络权重的数量来删减参数。另有一种方法就是「量化」,差别的是,它是通过淘汰每个权重的比特数来压缩原始网络。标量量化(scalar quantization)等盛行的后处置惩罚量化方法是让训练网络的浮点权重以一个低精度表征去表现,好比说定宽整数。这些后处置惩罚量化方法的利益在于压缩效率很高,而且能够加速支持硬件上的推理。但缺点在于,这些近似值造成的误差会在前向流传的盘算历程中不停累积,最终导致性能显著下降。

现在,来自 Facebook 的研究者提出了一种新的模型量化压缩技术 Quant-Noise,可对模型举行极致压缩,同时在实际应用部署时保持高性能。在这项研究中,研究者提出了一种仅量化权重子集而非整个网络的压缩方案。在每次前向流传时仅量化网络的随机部门,对大多数权重使用无偏梯度举行更新。

使用/未使用 Quant-Noise 训练的两种情况。

研究者在训练历程中将量化噪声应用于权重子集,从而改善了量化模型的性能。

在未使用 Quant-Noise 训练、使用 Quant-Noise 微调以及使用 Quant-Noise 训练三种差别的设置下,Adaptive Input 架构的困惑度和 RoBERTa 的准确率变化情况。可以看出,直接使用 Quant-Noise 训练可以实现最低的困惑度和最高的准确率。

推荐:该方法可以在训练历程中接纳更简朴的量化方案,这对于具有可训练参数的量化模块来说是很是有用的,好比乘积量化(Product Quantizer,PQ)算法。

论文 3:Lite Transformer With Long-short Range Attention

作者:Zhanghao Wu、Zhijian Liu、Song Han

论文链接:https://arxiv.org/pdf/2004.11886v1.pdf

摘要:虽然推出还不到 3 年,Transformer 已成为自然语言处置惩罚(NLP)领域里不行或缺的一环。然而这样盛行的算法却需求极高的算力才气实现足够的性能,这对于受到算力和电池严格限制的移动端来说有些力有未逮。

在本文中,来自 MIT 与上海交大的研究人员提出了一种高效的移动端 NLP 体系结构 Lite Transformer,向在边缘设备上部署移动级 NLP 应用迈进了一大步。该研究是由 MIT 电气工程和盘算机科学系助理教授韩松向导的。

Lite Transformer 架构 (a) 和注意力权重的可视化,传统的注意力 (b) 过于强调局部关系建模。

推荐:该论文已被 ICLR 2020 吸收。

论文 4:Decoupling Representation and classifier for long-tailed recognition

作者:Bingyi Kang、Saining Xie、Yannis Kalantidis 等

论文链接:https://openreview.net/pdf?id=r1gRTCVFvB

摘要:针对长尾漫衍的图像识别任务,现在的研究和实践提出了大致几种解决思路,好比分类损失权重重分配(loss re-weighting)、数据集重采样、尾部少量样本过采样、头部过多样本欠采样,或者迁移学习。来自新加坡国立大学与 Facebook AI 的研究者提出了一个新颖的解决角度:在学习分类任务的历程中,将通常默认为团结起来学习的种别特征表征与分类器解耦(decoupling),寻求合适的表征来最小化长尾样天职类的负面影响。

该研究系统性地探究了差别的样本平衡计谋对长尾型数据分类的影响,并举行了详实的实验,效果讲明:a) 当学习到高质量的种别表征时,数据不平衡很可能不会成为问题;b) 在学得上述表征后,即便应用最简朴的样本平衡采样方式,也一样有可能在仅调整分类器的情况下学习到很是鲁棒的长尾样天职类模型。该研究将表征学习和分类器学习分散开来,划分举行了延伸探究。

该研究在几个公然的长尾分类数据集上重新修改了头部种别和尾部种别的分类决议界限,而且搭配差别的采样计谋举行交织训练实验。以上是训练出的差别分类器之间的对比效果。

在 Places-LT、Imagenet-LT 和 iNaturalist2018 三个公然尺度数据集上,该研究提出的计谋也获得了同比更高的分类准确率,实现了新的 SOTA 效果。

推荐:将表征学习和分类器学习离开,寻找合适的表征来最小化长尾样天职类的负面影响,这提供了长尾型分类的新思路。论文已被 ICLR 2020 吸收。

论文 5:Bayesian Deep Learning and a Probabilistic Perspective of Generalization

作者:Andrew Gordon Wilson、Pavel Izmailov

论文链接:https://arxiv.org/pdf/2002.08791.pdf

摘要:贝叶斯方法的一个关键区别性特征在于边缘化,而不在于使用单一设置(single setting)的权重。贝叶斯边缘化尤其可以提升现代深度神经网络的准确率和校准。在这篇论文中,来自纽约大学的两位研究者表现,深度集成可以为近似贝叶斯边缘化提供一种有效机制,而且他们提出的相关方法在开销不大的情况下通过在吸引域(basins of attraction)内的边缘化进一步提升了预测漫衍。

此外,研究者还探究了神经网络权重上模糊漫衍所隐含的函数先验(prior over function),并从概率性的角度解释此类模型的泛化性能。从这个角度来看,研究者解释了对神经网络泛化来说神秘且奇特的效果,例如使用随机标签拟合图像的能力,并展示了这些效果可以通过高斯历程来复现。此外,他们还表现,贝叶斯模型一般可以减轻双下降(double descent),从而能够提升单调性能且增强灵活性。最后研究者从贝叶斯的视角解释了预测漫衍校准的回火问题。

概率视角下的泛化。

近似真实的预测漫衍。

贝叶斯模型平均可以缓解双重下降。

推荐:本篇论文第一版提交于 2020 年 2 月,这是修改后的第二版。论文已被 ICML 2020 吸收。

论文 6:MakeItTalk: Speaker-Aware Talking Head Animation

作者:Yang Zhou, DIngzeyu Li、Jose Echevarria 等

论文链接:https://arxiv.org/pdf/2004.12992v1.pdf

摘要:今天我们来看 Adobe 的一项研究,该研究提出了一种叫做 MakeItTalk 的新模型,不仅能让真人头像说话,还可以把卡通、油画、素描、日漫中的人像动态化。

该研究提出了一种新方法,可以基于单张人脸图像和语音生成惊艳的说话状态头部动画。之前的方法往往学习音频和原始像素之间的直接映射来建立说话人面部,而该方法将输入音频信号中的内容和说话人信息分散开来。音频内容稳健地控制嘴唇及周围面部区域的运动,说话人信息则决议人脸心情的细节和说话人的头部动态。

该方法的另一个重要组件是预测能够反映说话人动态的人脸特征点。基于该中间表征,该方法能够合成包罗完整运动的说话人面部传神视频。此方法还可使艺术作品、素描、2D 卡通人物、日漫、随手涂鸦转化为会说话的动态视频。

本研究中 MakeItTalk 方法的 Pipeline。

预测获得的卡通形象和动画和真实人脸动画。MakeItTalk 合成的不仅是面部神情,另有差别的头部姿态。

与当前 SOTA 方法的效果对比。

推荐:通过对该方法的定量和定性评估,效果讲明与之前的 SOTA 方法相比,该方法能够生成的说话状态头部动画质量更高。

论文 7:Reinforcement Learning with Augmented Data

作者:Michael Laskin、Kimin Lee、Aravind Srinivas 等

论文链接:https://arxiv.org/pdf/2004.14990.pdf

摘要:在本文中,来自加州大学伯克利分校的研究者提出了使用增强数据来举行强化学习(Reinforcement Learning with Augmented Data,简称为 RAD),这是一种可以增强任何 RL 算法的即插即用模块。他们发现,从数据效率、泛化性和墙上时钟速度三方面来看,随机修剪、色彩发抖和随机卷积等数据增强方法在常用基准上能够使简朴 RL 算法的性能媲美甚至逾越当前 SOTA 方法。

在 DeepMind 控制套件上,研究者证实就数据效率和性能两方面而言,RAD 在 15 个情况中均实现了当前 SOTA 效果,而且 RAD 可以显著提升几个 OpenAI ProcGen 基准上的测试时泛化性。最后自界说的数据增强模块可以实现较类似 RL 方法更快的墙上时钟速度。

Reinforcement Learning with Augmented Data(RAD)架构。

研究者选择了多种差别的数据增强方法。

RAD 与差别数据增强方法在 3 个 OpenAI ProcGen 情况(BigFish、StarPilot 和 Jumper)中的泛化效果对比。

推荐:在 DeepMind 控制套件上,RAD 在 15 个情况中均实现了当前 SOTA 效果。

ArXiv Weekly Radiostation

机械之心团结由楚航、罗若天提倡的ArXiv Weekly Radiostation,在 7 Papers 的基础上,精选本周更多重要论文,包罗NLP、CV、ML领域各10篇精选,并提供音频形式的论文摘要简介,详情如下:

本周 10 篇 NLP 精选论文是:

1. Empower Entity Set Expansion via Language Model Probing. (from Yunyi Zhang, Jiaming Shen, Jingbo Shang, Jiawei Han)

2. DomBERT: Domain-oriented Language Model for Aspect-based Sentiment Analysis. (from Hu Xu, Bing Liu, Lei Shu, Philip S. Yu)

3. Stay Hungry, Stay Focused: Generating Informative and Specific Questions in Information-Seeking Conversations. (from Peng Qi, Yuhao Zhang, Christopher D. Manningg)

4. Interpretable Multimodal Routing for Human Multimodal Language. (from Yao-Hung Hubert Tsai, Martin Q. Ma, Muqiao Yang, Ruslan Salakhutdinov, Louis-Philippe Morency)

5. Politeness Transfer: A Tag and Generate Approach. (from Aman Madaan, Amrith Setlur, Tanmay Parekh, Barnabas Poczos, Graham Neubig, Yiming Yang, Ruslan Salakhutdinov, Alan W Black, Shrimai Prabhumoye)

6. Recipes for building an open-domain chatbot. (from Stephen Roller, Emily Dinan, Naman Goyal, Da Ju, Mary Williamson, Yinhan Liu, Jing Xu, Myle Ott, Kurt Shuster, Eric M. Smith, Y-Lan Boureau, Jason Weston)

7. Detecting Domain Polarity-Changes of Words in a Sentiment Lexicon. (from Shuai Wang, Guangyi Lv, Sahisnu Mazumder, Bing Liu)

8. Unnatural Language Processing: Bridging the Gap Between Synthetic and Natural Language Data. (from Alana Marzoev, Samuel Madden, M. Frans Kaashoek, Michael Cafarella, Jacob Andreas)

9. Knowledge Graph Empowered Entity Description Generation. (from Liying Cheng, Yan Zhang, Dekun Wu, Zhanming Jie, Lidong Bing, Wei Lu, Luo Si)

10. Self-Attention with Cross-Lingual Position Representation. (from Liang Ding, Longyue Wang, Dacheng Tao)

本周 10 篇 CV 精选论文是:

1. Pyramid Attention Networks for Image Restoration. (from Yiqun Mei, Yuchen Fan, Yulun Zhang, Jiahui Yu, Yuqian Zhou, Ding Liu, Yun Fu, Thomas S. Huang, Honghui Shi)

2. Stitcher: Feedback-driven Data Provider for Object Detection. (from Yukang Chen, Peizhen Zhang, Zeming Li, Yanwei Li, Xiangyu Zhang, Gaofeng Meng, Shiming Xiang, Jian Sun, Jiaya Jia)

3. Leveraging Photometric Consistency over Time for Sparsely Supervised Hand-Object Reconstruction. (from Yana Hasson, Bugra Tekin, Federica Bogo, Ivan Laptev, Marc Pollefeys, Cordelia Schmid)

4. Consistent Video Depth Estimation. (from Xuan Luo, Jia-Bin Huang, Richard Szeliski, Kevin Matzen, Johannes Kopfi)

5. DFUC2020: Analysis Towards Diabetic Foot Ulcer Detection. (from Bill Cassidy, Neil D. Reeves, Pappachan Joseph, David Gillespie, Claire O'Shea, Satyan Rajbhandari, Arun G. Maiya, Eibe Frank, Andrew Boulton, David Armstrong, Bijan Najafi, Justina Wu, Moi Hoon Yap)

6. The 4th AI City Challenge. (from Milind Naphade, Shuo Wang, David Anastasiu, Zheng Tang, Ming-Ching Chang, Xiaodong Yang, Liang Zheng, Anuj Sharma, Rama Chellappa, Pranamesh Chakraborty)

7. Gabriella: An Online System for Real-Time Activity Detection in Untrimmed Surveillance Videos. (from Mamshad Nayeem Rizve, Ugur Demir, Praveen Tirupattur, Aayush Jung Rana, Kevin Duarte, Ishan Dave, Yogesh Singh Rawat, Mubarak Shah)

8. Fashionpedia: Ontology, Segmentation, and an Attribute Localization Dataset. (from Menglin Jia, Mengyun Shi, Mikhail Sirotenko, Yin Cui, Claire Cardie, Bharath Hariharan, Hartwig Adam, Serge Belongie)

9. Multi-Scale Boosted Dehazing Network with Dense Feature Fusion. (from Hang Dong, Jinshan Pan, Lei Xiang, Zhe Hu, Xinyi Zhang, Fei Wang, Ming-Hsuan Yang)

10. Deep Multimodal Neural Architecture Search. (from Zhou Yu, Yuhao Cui, Jun Yu, Meng Wang, Dacheng Tao, Qi Tian)

本周 10 篇 ML 精选论文是:

1. Image Augmentation Is All You Need: Regularizing Deep Reinforcement Learning from Pixels. (from Ilya Kostrikov, Denis Yarats, Rob Fergus)

2. Energy-based models for atomic-resolution protein conformations. (from Yilun Du, Joshua Meier, Jerry Ma, Rob Fergus, Alexander Rives)

3. Visual Grounding of Learned Physical Models. (from Yunzhu Li, Toru Lin, Kexin Yi, Daniel Bear, Daniel L. K. Yamins, Jiajun Wu, Joshua B. Tenenbaum, Antonio Torralba)

4. Towards Feature Space Adversarial Attack. (from Qiuling Xu, Guanhong Tao, Siyuan Cheng, Lin Tan, Xiangyu Zhang)

5. Non-Exhaustive, Overlapping Co-Clustering: An Extended Analysis. (from Joyce Jiyoung Whang, Inderjit S. Dhillon)

6. An Explainable Deep Learning-based Prognostic Model for Rotating Machinery. (from Namkyoung Lee, Michael H. Azarian, Michael G. Pecht)

7. Reinforcement Learning with Augmented Data. (from Michael Laskin, Kimin Lee, Adam Stooke, Lerrel Pinto, Pieter Abbeel, Aravind Srinivas)

8. Explainable Unsupervised Change-point Detection via Graph Neural Networks. (from Ruohong Zhang, Yu Hao, Donghan Yu, Wei-Cheng Chang, Guokun Lai, Yiming Yang)

9. Plan-Space State Embeddings for Improved Reinforcement Learning. (from Max Pflueger, Gaurav S. Sukhatme)

10. Privacy in Deep Learning: A Survey. (from Fatemehsadat Mirshghallah, Mohammadkazem Taram, Praneeth Vepakomma, Abhishek Singh, Ramesh Raskar, Hadi Esmaeilzadeh)