左转向善,右转向恶,2020 年的九大 AI 风向标

  • 时间:
  • 浏览:277
  • 来源:世界杯买球盘口网址app

2017 年底,美国社交新闻网站 Reddit 一位名叫 deepfakes 的用户运用 AI 制作了一段“假”色情视频,将《神奇女侠》女主角盖尔·加朵的脸嫁接到一个成人影戏女星身上,一时间引起惊动。

自此,AI 换脸焦点算法就正式被命名为 DeepFakes,并一直颇具争议。不外,它“有趣又愚蠢”的一面,也为媒体公司提供了新的时机。

2019 年 12 月,社交媒体应用 Snapchat 以 1.66 亿美元收购了乌克兰图像和视频识别初创公司 AI Factory,两者此前曾互助,使用户能将自照相片插入 GIF 中以建立动画化的 AI 换脸。另外,中国公司字节跳动的短视频应用 TikTok 也在开发类似功效。三星揭晓了一篇有关使用神经网络建立传神的“说话人的头部”的论文。下面,左图显示了源图片,右图则是由 AI 生成的。

(泉源:三星)

英国《金融时报》报道,价钱昂贵且费时的传统的盘算机生成图形,与最近泛起的 AI 换脸技术正形成了鲜明对比。因此,好莱坞也朝着“数字化复生”那些“五、六十年月”影戏中的演员这一偏向生长。

而在零售方面,AI 换脸还使品牌为消费者提供超个性化的视觉营销。如初创公司 Superpersonal 会将用户的脸部视频片段替换为虚拟试装。

(泉源:Superpersonal)

AI 换脸在影响者营销方面也有所作为。在非政府组织“疟疾必死”(Malaria Must Die)的运动宣传视频中,初创公司 Synthesia 使用 Deepfake 技术让贝克汉姆在视频中说了 9 种差别的语言。

(泉源:“疟疾必死”(Malaria Must Die))

而在中国,2019 年 3 月,B 站上一个名叫“换脸哥”的用户上传了一条《射雕英雄传》片段,将其中黄蓉饰演者朱茵的脸换成了杨幂的脸。

(泉源:网络)

不久,更多作品跟风而至,网友们使用该技术,将某平台女主播的脸换成刘亦菲、杨幂、唐嫣、范冰冰等女星的脸。另外,一款名叫 “ZAO” 的软件受到热捧,通过这款软件,用户可以将影视剧、综艺节目片段中明星的脸换成自己的脸。不外这一软件也被质疑涉及隐私泄露和侵权等问题。

关键词

个性化

零售中的换脸就是将消费体验加倍。该技术将促进电子商务体验和虚拟在线试用。

针对性的广告

随着技术的商品化,当地化的广告,如使用差别语言的即时配音,将成为越发可用的结果。

创意领域的自动化

在电视和影戏行业中使用 AI 换脸可能会导致续集、衍生产物和现有内容的文化改编的泛滥。在铸造和建模等对人脸要求很是高的领域,AI 换脸可能带来负面影响。

下一代黑客:愚弄 AI 和使用 AI 的攻击

AI 时代下的黑客正朝两个偏向生长:愚弄 AI 系统和使用 AI 提倡攻击。

在 2019 年,总部位于悉尼的宁静公司 Skylight Cyber 的研究人员破解了网络宁静初创企业 Cylance 开发的 AI 杀毒软件。Skylight 陈诉说,它发现了其 AI 模型中的毛病,并使用它建立了一个通用旁路,从而使恶意软件无法被发现。

(泉源:CB Insights)

黑客还可以通过污染数据来欺骗 AI。而且,还可能会在图像上引入人眼看不见的细微扰动,以欺骗神经网络。

AI 自己也可用于制造更庞大的、针对性强的网络攻击。有关 AI 发生的语音欺骗的报道最早泛起于 2019 年 3 月的欧洲。据《华尔街日报》报道,犯罪分子通过 AI 语音生成软件,乐成模拟并冒充一家英国能源公司的母公司 CEO,来欺骗其多位同事和互助同伴,一天内多次诈骗并转移资金,使该公司损失约 173 万元。

另外,IBM 早在 2018 年就开发的一种名为“DeepLocker”的恶意软件讲明,AI 可以绕过网络宁静掩护举行攻击。DeepLocker 被形貌为“一种由 AI 驱动的具有高度针对性和规避性攻击工具的新型恶意软件”,只有在识别出如视觉、音频、地理定位和系统级特性等特定尺度时,才会“解锁”恶意软件以开始攻击。由于险些不行能确定所有可能的触发因素,就使深度神经网络的反向工程变得十分难题。

关键词

黑客无情

如今所有人比以往任何时候都更容易使用 AI 工具,这为黑客提供了更多的土壤。

网络 AI 初创企业可能面临新的攻击

黑客已经证明,使用机械学习模型的内在偏差并欺骗算法很容易。

重工业准备不足

在已往的十年中,已经泛起过几例针对工业控制系统的恶意法式肆虐案例。如震网病毒 Stuxnet 2010 年被用于伊朗核设备攻击、Black Energy 2015 年被用于乌克兰电网攻击、Havex 攻击欧洲境内组织,以及 Industroyer 2016 年侵入乌克兰工控系统等。观察显示,重工业抵御网络风险的能力还很落伍,也没有为 AI 恶意软件等更高级的威胁做好准备。

AutoML:未来“让 AI 学习设计 AI”

机械学习的兴起动员了这一波人工智能的浪潮。而自念头器学习 AutoML 则有可能引领下一代潮水。

AutoML 是一套用于自动化神经网络设计和训练的 AI 工具套件,它通过淘汰对 AI 专业知识的依赖,降低企业的准入门槛,使技术更民主化。通常,构建体现优良的机械学习应用,需要很是专业的数据科学家和领域专家。而 AutoML 的目的则是在纵然没有统计学和机械学习方面的广泛知识的情况下,也能自动构建机械学习应用。

“神经网络的设计很是耗时且对专业要求很高,为此,我们建立了一种名为 AutoML 的方法,希望让神经网络自己设计神经网络。”谷歌 CEO 桑达尔·皮查伊(Sundar Pichai) 在博文中写道。于是,谷歌于 2017 年正式为此缔造了 “ AutoML”。

(泉源:谷歌)

而自谷歌提出这一观点后,用于 AI 设计的 AutoML 工具,包罗数据准备、训练、模型搜索及特征工程的接纳率一直在逐渐增加。如 Waymo 最近与谷歌互助,使寻找最佳神经网络架构的历程自动化,从而使自动驾驶汽车能够从激光雷达(光检测和测距)数据识别树木、行人和车辆。谷歌云 AutoML 还可用于盘算机视觉、视频处置惩罚、翻译和 NLP 任务。初创公司还为企业提供即插即用的解决方案。

同时,中国也泛起了不少相关研究,称能够解放算法工程师,让 AI 自动化。在去年的数据挖掘领域顶会 PAKDD 的 AutoML 挑战赛上,中国公司深兰的 DeepBlueAI、微软&北航团队、清华大学等团队都有上榜。

其中,深兰科技团队设计的机械学习框架通过融合差别时期的数据以及联合 DNN 和 Light GBM 的训练来自适应观点漂移,并引入了自适应采样来缓解种别不平衡,同时在一定时间距离上让模型重复训练以适应观点漂移,实现终身机械学习。

关键词

人才短缺

在 AI 专家严重短缺的现实情况下,AutoML 能帮 AI 知识不足的企业将技术民主化。

成本和庞大性

纵然对于专家而言,设计神经网络也是一个耗时的手动历程。AutoML 可建立更好的解决方案,并降低与试错相关的盘算成本。

联邦学习将带来全新的数据互助生态系统

联邦学习(Federated Learning)在 2016 年由谷歌最先提出,是一种新兴的人工智能基础技术。

在谷歌 2019 年第二季度的财报集会中,谷歌 CEO 桑达尔·皮查伊强调,对谷歌来说,联邦学习和一些其他的隐私管控是其现阶段重点的关注和努力偏向。他说:“我们一直以来都很关注用户的隐私及治理,三年来我们一直在提议并推进联邦学习的使用,这也是我们现阶段的重点之一。”

最初联邦学习被用在预测安卓系统用户在使用键盘时下一步会输入的内容,也被用在谷歌的文本预测软件以及火狐浏览器 URL 搜索方面。其设计目的是在保障大数据交流时的信息宁静、掩护终端数据和小我私家数据隐私、保证在正当合规的前提下,在多到场方或多盘算结点之间开展高效率的机械学习。

如下图所示,联邦学习可以让装配有 Gboard (谷歌推出的虚拟键盘)的软件在不向谷歌发送原始用户小我私家数据的前提下提升其 AI 模型。这样以来,用户手机中的数据还生存在用户手机中,而并未被发送或储存到某其中央云服务器中。

(泉源:谷歌)

云服务器将某小我私家工智能算法的最新版本发送到某一用户群的设备上,然后用户的手机可以凭据当地数据更新 AI 模型。这时,发送回云服务器的只是更新部门,而非更新所使用的当地数据。云服务器可以再凭据吸收到的更新部门,提升算法的全局状态(“global state”)。

联邦学习既可以掩护用户数据,又不会影响 AI 算法的性能提升,其正在为包罗医疗康健和银行业在内的、对于数据使用受到高度管控和关注的行业提供新的可能。

英伟达 AI 驱动的软硬件框架 Clara 主要针对医疗康健场景,现也支持联邦学习。其使用方包罗美国放射医学院、麻省总医院、布列根和妇女医院临床数据科学中心、UCLA 医学中心等。此外,英伟达还与医疗康健领域初创公司 Owkin 互助,Owkin 主要从事使用联邦学习举行癌症患者的抗药性预测方面的业务。

(泉源:英伟达)

中科院盘算所泛在盘算系统研究中心针对帕金森症建设了 FedHealth 框架,使用联邦学习、迁移学习、增量学习来判断病人服药前后的状况变化、用药效果等。

金融领域,中国的微众银行正与腾讯云和加拿大人工智能研究中心 Mila 互助举行联邦学习方面的研究。今年 1 月底,微众银行 AI 团队研发并推出了其联邦学习开源框架 FATE(Federated AI Technology Enabler),该框架接纳了多种宁静盘算协议,从而保证在切合羁系划定的数据掩护前提下,举行跨域信息互助。

固然,联邦学习作为一个新兴观点正在越来越广泛地应用在其他领域,好比智能都会、智能制造等方面。中国公司(包罗京东、华为等)也在努力结构联邦学习方面的应用,相信在未来可以看到更多联邦学习相关的落地应用。

关键词

全局模型+当地数据

通过使用联邦学习,用户可以通过使用当地数据训练 AI 模型,并只将 AI 模型的更新部门更新到中央云端。云端通过所有网络中使用者发送的模型更新来优化其模型应用。

数据多样化

联邦学习可以助力跨域互助,从而通过越发多样化的当地数据优化全局模型。

Alphabet 将通过 AI 主导智慧都会合约

凭借其强大的 IoT 和机械学习能力,这家一万亿美元的 Al 巨头正在努力结构都会生长及智慧都会计划领域。

通过联手政府,Alphabet 正在许多都会缔造新的街区,并重新计划房地产、公共能源设施、交通等结构。去年第二季度,Alphabet 旗下子公司 Sidewalk Labs 公布了一份 1500 页的方案,其中详述了如何通过与政府和其他企业的互助,以 13 亿美元在多伦多打造一个智慧都会的项目。项目的重点和亮点就集中在 AI 在政府和都会计划的应用上。

(泉源:Sidewalk Labs)

从观点上来看,智慧都会可以包罗智慧医疗、智慧出行、都会监控、数据基础设施以及许多其他 AI 和机械学习的应用领域。下图列出了 Alphabet 在上述领域的主要结构,其优势不言自明,这也让其成为从房地产到能源到交通领域再到咨询服务方面强有力的市场竞争者。

(泉源:CB Insights)

在这里略微说一下两家小型初创公司 Replica 和 Coord。Replica 主要使用机械学习来为通勤行为建模,并关注影响通勤方式选择的因素等。应用方面已有与伊利诺伊政府签订的 360 万美元的三年合约,以及与波特兰政府的一年服务协议。Coord 主要关注使用机械学习绘制街道资产图景。其正在邀请各个都会到场其提倡的“数字街道挑战”运动,最终的获胜都会将可以免费试用其技术,固然 Coord 也可以通过这次运动调试其平台性能及调整其计谋偏向。

上文说到的 Alphabet 旗下子公司 Sidewalk Labs 在处置惩罚特定都会生长问题方面正在凌驾较小型的初创公司(如 Replica 和 Coord)。Sidewalk Labs 在多伦多的试点项目中突出了淘汰温室气体排放和更智能的资源治理两个方面。通过机械学习工程师分析传感器收集的数据以及搭建治理系统,来建设能耗以及可连续性方面的推荐引擎和预测模型。

关键词

政府青睐

Alphabet 在 AI 方面的专业让其自然而然地成为政府互助青睐的工具,加之旗下子公司,好比 DeepMind,、Waymo、lab X 等,更为其竞争力加码。

端到端解决方案

相较于其他聚焦某一个领域的供应商,Alphabet 擅长基于机械学习的险些所有智慧都会相关方面,从都会生长工具到自动驾驶汽车再到能源治理。

分管财政风险

Alphabet 有强大的实力分管财政风险并举行前期方面的投资。好比 Sidewalk Labs 就宣称,在其与其他机构或企业的互助中,其可以分管前期的创新成本,并在后期达标后获得酬劳。这样一来,其与政府或相关机构在举行技术互助或者试验的时候,增加了互助的乐成可能。

能源驱动的 AI 将会被用来解决能源问题

2020 年,更节约能源的 AI 将成为一个重要的话题。从科技巨头、汽车制造商到油气巨头,无一不在寻求削减成本、提升效率、降低能耗。

一直以来,我们都在说人工智能,也在强调其所需要的算力。可是算力不是凭空发生的,是需要消耗能量的。在我们不停强调要提高算力让 AI 变得更智慧的时候,我们也需要思量使用更具可连续性的能源解决方案。

现阶段 AI 的进步多是自上而下的,也就是科技巨头在向导 AI 方面的研发以及开发开源工具偏向,这主要是因为科技巨头在算力方面占有庞大优势。Fast Company 曾报道,2018 年谷歌在其 BigGAN 实验中,为缔造出高度传神的图像,消耗了相当于普通美国家庭半年的平均电量。

(泉源:CB Insights)

相较于云盘算,边缘盘算并不具有同等的算力和资源,所以在 AI 越来越多地被应用在边缘设备(如电话、相机)的历程中,能源使用效率正变得越来越重要。这里第一个值得关注的方面是越发节能的 AI 设备。

Xnor.ai 是一家致力于开发低能耗边缘 AI 工具的初创公司,它关注超低功耗、可运行 AI 算法的相机。其硬件工程和机械学习团队曾提出一个问题:“(我们)是否可以开发出一台能够在没有电池的情况下运行深度学习模型的硬件设备及机械学习架构?它可以是很是低功耗,甚至太阳能驱动的。”今年头,苹果公司收购了 Xnor.ai,这一举动反映了苹果在低能耗 AI 方面的结构,以及其在苹果手机的 AI 芯片及 VR 应用方面的努力努力。

中国深圳耐能人工智能有限公司(Kneron)主打高性能、低功耗、低成本的 AI 解决方案,最近公布了一款针对边缘设备的低耗能 AI 处置惩罚器。本月初,耐能宣布完成 4000 万美元 A2 轮融资,由李嘉诚旗下维港投资领投,其资方包罗阿里巴巴创业者基金、高通、中科创达、红杉资本子基金 Cloudatlas 等,总计获得了凌驾 7300 万美元的融资。

另一个值得关注的偏向是用于大型能源工厂及其设备的 AI 治理预测工具。好比,比尔·盖茨投资的初创公司 Heliogen 主要集中于一些能源行业的细分市场,好比通过使用 AI 算法来控制太阳能发电系统中的定日镜。

凭据天气预报的数据以及收集到的风力发电机的数据,DeepMind 的神经网络可以提前 36 个小时预测未来风能产量。基于这些预测,DeepMind 的模型可以提前一天将如何实现最优交付见告电网企业。对电网企业来说,能够有计划地调理能源很是重要。

谷歌一直在努力推动在其数据中心使用可再生能源,而且它正在使用 AI 来资助实现这一行动。通过与 DeepMind 互助,借助其神经网络来提高风能产量。

(泉源:Google AI research)

关键词

超低功耗的机械学习设备

对于在边缘设备(如智能手机、智能家居摄像头等)来说,能效正在成为一个重要的考量因素。

大型能源企业

越来越多的大型云服务商正在向使用可再生能源偏向转变,并通过融合 AI 来提高可再生能源产量、简化数据中心操作流程。

精简操作

AI 可以很好地预测可再生能源产量、将电网治理自动化、资助准确钻探油井以及为智能家居和商业修建中的可连续能源治理提供解决方案。

解决AI的小数据问题是重点

对深度学习算法,如果没有足够多的数据举行训练,有两种方法可以解决这个问题:生成合成数据,或者开发可使用小数据展开事情的 AI 模型。

众所周知,深度学习需要数据,其模型训练都是在大量标志数据的基础上举行的,好比,使用数以百万计的动物标志图像训练 AI 学会识别。但大量标志数据对某些应用来说并不适用,在这种情况下,重新开始训练一个 AI 模型,纵然可能,也充满了难题。

一个潜在的解决方案是用合成数据扩充真实数据集。这在自动驾驶领域获得了广泛的应用。自动驾驶汽车在传神的模拟情况中行驶数百万英里,碰面临狂风雪以及行人突刊行为等种种情况,而针对这些情况,我们很难获取到真实数据。

合成数据正在泛起,如下图所示的来自英伟达(NVIDIA)的合成核磁共振(MRI )图像,就用于扩充稀有疾病的真实数据。

(泉源:英伟达)

围绕数据问题的另一种解决方案是开发能够基于小数据集举行学习的 AI 模型。一种名为迁移学习(transfer learning)的方法已在盘算机视觉任务中获得应用。该方法使用预先训练的 AI 算法来执行一个有大量标志数据的任务(如识别图像中的汽车),然后将该知识转移到另一个数据很少的差别任务上(如识别卡车)。使用预先训练的模型就像包饺子时使用现成的饺子皮,免去了和面的步骤。

图 | 美国有关迁移学习专利的统计(泉源:CB Insights)

虽然预先训练的模型在盘算机视觉领域已经取得了长足的生长,但在自然语言处置惩罚(NLP)领域,由于缺乏标志数据,到现在为止,一直是一项极具挑战的事情。不外,一种名为自我监视预训练(self-supervised pre-training)的方法在自然语言处置惩罚领域中逐渐盛行起来。

所谓自我监视预训练,首先要凭据网络上的大量数据训练 AI 模型。例如,OpenAI 举行了一项盘算极其麋集的任务:用 800 万个网页作为训练数据,训练一个基于给定文本预测下一文本词汇的 AI 模型。这一方法被称为自我监视学习,因为这里不涉及“标签”:AI 通过基于句子中的其他单词预测一个隐藏的单词来学习语言。研究员 Jeremy Howard 在 Fast.ai 的一段摘录中解释了为什么这些自我监视语言模型很是重要:

“我们纷歧定对语言模型自己感兴趣,但事实证明,能够完成这一任务的模型在学习语言的历程中必须相识语言的本质,甚至要对世界有所相识。当我们把这个预先训练好的语言模型用于另一项任务(好比情感分析)时,我们可以用很少的数据获得比力满足的效果。"

另一个典型的例子是谷歌 BERT,其 AI 语言模型不仅可以凭据前文内容举行预测,还可以基于后文展开,也就是说该模型接纳了双向语言模型的方式,能够更好的融合前后文的知识。

(泉源:谷歌)

由 Yann LeCun 向导的 Facebook AI 研究部门一直都看好自我监视。好比,他们首先会训练出一个语言模型(类似上文),然后举行预训练,并对其举行微调以举行愤恨言论的识别。

(泉源:Facebook)

最近,Facebook 还开源了其自我监视语音识别模型,很好地解决了小型研究项目对人工标志文本的需求问题。非英语语言的标注训练数据往往数量有限,针对这个问题, Facebook 开源了代码 wav2vec,这对非英语语言的语音识别尤其有用。

关键词

自然语言处置惩罚

由于自我监视技术的泛起,2020 年自然语言处置惩罚将成为人们关注的焦点。我们最终会看到像谈天机械人、高级机械翻译以及类似于人类的写作等更好的下游自然语言处置惩罚应用的泛起。

大型科技公司牵头

因为开发预训练的语言模型需要举行大量的盘算,针对小数据的 AI 模型的研究将是自上而下的。科技巨头正在开源自己的研究结果,以便其他研究人员可以将其用于下游应用。

合成数据及其工具

合成数据及其工具为那些无法像科技巨头那样会见海量数据集的小公司提供了公正的竞争情况。

量子机械学习为传统的AI算法注入活力

我们将很快看到联合了传统机械学习算法与量子 AI 的模型的实际应用。

二进制盘算中信息存储为 0 或 1。与二进制盘算差别的是,量子盘算机是基于量子比特的。量子比特可以是 0 到 1 的任意值,或者同时具有这两个值的属性。因此,在运行盘算方面有很大的优势。

可是,我们与传统盘算机交互的方式并不适用于量子盘算机。它需要专门的数据、算法以及编程。

量子机械学习借鉴了传统机械学习的原理,但其算法会运行在量子处置惩罚器上,这使得它们比传统的神经网络更快,而且解决了当前 AI 在海量数据集上举行研究所受到的硬件限制问题。

不外,量子神经网络(Quantum Neural Networks,QNN)的研究尚处于起步阶段。对此,谷歌曾表现:“传统的机械学习从降生到建设监视学习的通用框架,花了许多年的时间。在量子神经网络的设计方面,我们还在探索。”

那么,QNN 算法将如何解决现实问题呢?

科技巨头和量子创业公司正在思量一种混淆方法,其中一部门任务由运行在传统盘算机上的传统神经网络完成,另一部门则由量子神经网络增强。

好比,多伦多创业公司 Xanadu 正在将量子与传统相联合的 AI 应用于迁移学习,其效果在图像分类任务中有很好的应用前景。

(泉源:Xanadu 研究论文, arxiv.org)

另外,自 2013 年以来,谷歌 AI 团队就一直专注于为量子盘算机编写算法。与 Xanadu 一样,其近期目的是开发“可适用于量子设备的量子与传统相联合的机械学习技术”。谷歌 AI 团队曾撰文表现:“虽然现在关于 QNN 的事情主要是理论方面的,但在不久的未来,它们将可能会在量子盘算机上举行测试并得以实现。”

在谷歌揭晓的两片研究论文中,其划分探索了以差别于传统神经网络训练方法的方式训练 QNN,以及在模拟中测试 QNN 执行简朴图像分类任务的能力。

只管当今最强大的量子盘算机,包罗谷歌正在开发的那些,已经可以控制 50 到 100 个量子比特。但研究人员表现,若要量子盘算机发生更广泛的商业影响,至少到达控制需要几千个量子比特的水平。

鉴于量子信息的生长可能带给信息领域的影响,政府和各科技公司巨头都对量子技术研究展开了努力投资。CB Insights 的数据显示,2019 年量子盘算领域共完成 14 笔生意业务,涉及金额达 1.978 亿美元,相较 2018 年略有下降。

(泉源:CB Insights)

其中,自 2015 年 1 月 1 日至 2020 年 2 月 9 日,就国家而言,相关生意业务数量占比位居前三位的划分是美国(45.3%)、加拿大(15.6%)以及英国(14.1%)。

(泉源:CB Insights)

那么,中国在该领域的投资情况如何呢?

2019 年 10 月,Nature曾揭晓一篇专栏文章,分析了近年来私人投资大量涌入量子科技领域初创公司的情况。其中,针对中国的投资,文章指出,鉴于英语媒体报道以及西方分析公司的报道很少涉及中国的投资生意业务,所以在文章很可能缺少一部门中国数据。不外对于量子盘算在中国的生长情况,文章援引了中国科学技术大学潘建伟教授的话表现,中国的量子技术工业化也在顺利举行。另外,专利的申请情况也能举行佐证:凭据欧盟委员会团结研究中心的数据,2012 年至 2017 年的量子技术创新专利中,凌驾 43% 来自中国的大学和企业。

(泉源:Martino Travagnin/欧盟委员会团结研究中心)

关键词

与传统盘算机联合

我们将开始看到世界上最强大的两种盘算范式——量子盘算和 AI ——通过与传统盘算机联合来解决实际问题。

量子云盘算

量子云盘算是“云战争”中的最新前沿领域,所有主要供应商,包罗 AWS、谷歌、IBM 和微软,都在鼎力大举投入其中。正如 Rigetti、微软和 OpenAI 在 2020 年揭晓的一篇论文中所强调的那样,这意味着量子盘算机将与传统 GPU 和 CPU 协同事情。我们会看到云 AI 算法在这样的混淆硬件平台上运行。

自然语言处置惩罚将资助我们明白生命的组成要素

自然语言处置惩罚和基因组有一个配合特点,即都是由序列数据组成。自然语言处置惩罚的生长,为基因组学的研究带来了启发。

在本陈诉前述的自我监视学习案例中,研究人员会隐藏句子中的特定单词,让算法推测缺失的单词,从而更广泛地学习语言。正如句子是由单词按序列组成的一样,卵白质是按特定顺序排列的氨基酸序列。

来自德国的研究人员使用了一个类似于自我监视语言模型的观点对卵白质举行分类。Facebook AI 研究部门和纽约大学的研究人员在卵白质序列的海量数据集上使用了自我监视观点,用 AI 预测隐藏的氨基酸。

(泉源:Biorxiv)

针对最近盛行起来的基因组建模,DeepMind 开发了一种名为 AlphaFold 的算法,通过明白卵白质折叠(基因组学中最庞大的挑战之一)来确定卵白质的 3D 结构。

(泉源:DeepMind)

虽然 AlphaFold 使用的是一种混淆方法,但它借用了自然语言处置惩罚中的观点来预测氨基酸对之间的距离,以及毗连它们的化学键之间的角度。

针对最近在中国发作的新型冠状病毒肺炎,百度在今年 2 月初开源了其 RNA 预测算法 LinearFold。该算法可以大大缩短预测病毒 RNA 的二级结构的时间(将预测时间从 55 分钟缩短至 27 秒),从而资助为前线医疗研究人员更好更快地剖析病毒及开发疫苗。

关键词

更好的药物设计

卵白质会凭据情况因素动态地改变结构,所以相识其结构及折叠方式将为未知的靶点开发药物带来时机。

无需深入相识领域知识

AI 算法可以在不深入地相识领域知识的前提下,资助卵白质建模并相识其结构。

具有特定功效的卵白质设计

为医疗保健和质料科学开发或优化具有特定功效的新的卵白质设计将成为可能。

结语

以上为 CB Insights 整理出来的 2020 年 AI 趋势,虽然其中一些技术已经取得了开端希望,但不行否认的是,我们也也面临着许多技术及应用方面的挑战。

希望在 2020 年我们能看到更多跨越了这些挑战的技术突破。

(责编:Miamiam,张瑞,Shasha)