你能想到的TA都有 Intel推全平台AI战略

  • 时间:
  • 浏览:163
  • 来源:世界杯买球盘口网址app

X86处置惩罚器问世42年了,已经进入了不惑之年,转头看看它的生长历程,到底都在哪些方面有了质变呢?

大家都看获得是性能,这些年来X86性能不停进步,最初频率不外5MHz,现在已经增长1000倍到5GHz,也从最初的单核一路扩展到了双核、四核、八核等,这可以说是X86的第一种算力。

第二点就是功效,X86处置惩罚器最初就是单纯的CPU,后续不停扩展,20多年前开始整合浮点单元,10年前开始整合GPU单元,它可以看作X86的第二次算力革命。

如今已经进入到了21世纪第三个十年,这几年来人们对算力的要求也纷歧样了,AI人工智能崛起,种种AI芯片方兴未艾,这些厂商动不动就是吊打CPU处置惩罚器,这也让X86处置惩罚器有些落寞。

既然这个趋势不行制止,那就拥抱它吧——X86老大Intel这两年来就是这么做的,从10nm Ice Lake处置惩罚器开始给X86处置惩罚器加入AI加速功效,促成了X86处置惩罚器史上第三次算力崛起。

Tiger Lake处置惩罚器:三位一体加速AI、6倍AI性能

Intel是最早一家赋予X86 CPU处置惩罚器AI加速功效的公司,早在去年的Ice Lake处置惩罚器上就首次集成了AI加速,其时是通过DL Boost指令集实现的。

所谓DL Boost,指的是DeepLearning Boost(深度学习加速),深度学习是现在最火热的AI技术之一,但它与CPU、GPU通例的运算指令又有所差别,根据通例方法跑效率很低,而DLBoost是专门用于加速AI运算的指令,因此运算效率很是高,速度要快许多。

DLBoost指令集中主要包罗AVX512VNNI以及Bfloat 16,它全面支持Windows ML、Intel OpenVINO、苹果CoreML等框架,兼容现在主流的AI平台,便于开发者在十代酷睿上推进种种AI应用。

凭据之前的测试,Ice Lake支持DL Boost之后,在INT8运算相关的AIXPRT测试中,Ice Lake处置惩罚器的性能可达前代处置惩罚器的 2倍到2.5倍之多。

在Ice Lake小试牛刀之后,Intel在第二代10nm处置惩罚器Tiger Lake上进一步增强了AI性能,除了原有的DL Boost及低功耗加速器之外,Tiger Lake上这次的Xe图形架构GPU进一步提升GPU对AI的加速性能,将Ice Lake上的CPU+GPU+GNA的AI加速性能提升到新的高度。

在Tiger Lake处置惩罚器上,基于Xe图形架构的内置显卡是其亮点之一,该图形架构是Intel时隔22年之后重返高性能GPU市场的基础,通过Xe图形架构就能同时笼罩条记本、台式机、事情站、HPC超算等低功耗到高性能图形盘算平台。

除了高性能盘算之外,AI加速也是Intel的Xe架构差别于其他GPU的地方,Intel用于极光”(Aurora)百亿亿次级超级盘算机的GPU也是Xe架构的,代号Ponte Vecchio,它跟Tiger Lake中的Xe GPU只是规模巨细差别。

实际性能如何呢?先不说更强大的Tiger Lake,只需要现在的Ice Lake处置惩罚器出马,其AI加速性能就已经到达了竞品的数倍,最高可达6倍性能。

不光是理论性能占优,实际上AI加速在PC上已经有了大量应用,涉及图像、音频、视频、语音等各个领域,许多时候大家可能并没有感受到而已。

在CES现场,Intel邀请了Adobe公司的开发人员上台,演示了Photoshop软件的AI加速,上图中原图是一张分辨率较低、噪点较多的照片,通过AI加速可以在几秒钟内酿成一张个高分辨率、高画质的大图片,细节明白、效果锐利。

基于AI加速,Photoshop软件还可以自动抠图,省心省力,这样下去设计师都要失业了。

除了图片,AI技术在视频处置惩罚中也一样可以大显身手,PR软件已经可以靠AI实现横屏与竖屏的自动处置惩罚,同样可以提升设计师的效率,简化事情量。

消费级CPU补齐缺失的一环 Intel全平台AI起航

对于AI人工智能的前景,现在没人怀疑它会在未来改变人类的科技树,差别的是之前大部门公司都是通过专用AI芯片来跑AI加速,不认为CPU这样的通用处置惩罚器适合加速AI,可是Intel做的有点纷歧样,在两代10nm处置惩罚器上都不停增强AI算力,补齐了消费级CPU没有AI加速的这一环。

去年12月中旬,Intel公司宣布斥资20亿美元收购了以色列初创公司Habana,后者是由David Dahan和Ran Halutz于2016年建立的,总部在以色列,致力于提高AI芯片的处置惩罚性能并降低其成本和功耗,其AI芯片主要针对深度神经网络训练的特定需求,更适合云端AI训练。

收购Habana公司之后,Intel又获得了一种AI加速芯片——AI推理及AI训练专用芯片。如果再把之前Intel已有的AI相关芯片联系起来,那么大家就可以看到Intel已经在全平台芯片上推进了AI战略。

CPU处置惩罚器中,新一代酷睿及至强处置惩罚器都开始支持DL Boost为基础的AI加速指令,FPGA中有Agilex系列AI芯片,神经网络芯片有Moviduis以及Nervana系列,GPU加速的AI芯片有Xe图形架构,可以说Intel已经集齐了种种各样的AI芯片,岂论哪种AI芯片都有自己的全套解决方案。

这种大面积撒网的结构使得Intel在未来的AI市场竞争中有更强的底气,也更容易发挥协同效应,CPU可以跟GPU、FPGA芯片搭配,灵活应对高性能或者低功耗等AI解决方案,横竖从PC到事情站再到数据中心、超算,从当地到云端,从训练到推理,业界需要什么样的AI方案,Intel这边就是“全都有”。

Intel的AI之道:全AI芯片打地基 OneAPI开路

Intel拥有的多种AI芯片中,除了CPU、GPU是自己研发之外,FPGA、Moviduis、Nervana及Habana都是收购来的,不外这也没关系,Intel拥有地球上最先进的制程工艺,这些芯片升级革新之后很快都市使用自家的先进工艺生产,FPGA、Moviduis、Nervana等芯片已经这样做了,陆续使用Intel自己的14nm、10nm及未来的7nm工艺生产。

在解决AI芯片之后,Intel还在推OneAPI软件战略,简朴来说就是通过一套开发工具满足差别平台、差别芯片的软件开发,这是Intel“软件先行”战略的重要体现,Intel相信这一战略将界说和引领一小我私家工智能日益融合、异构及多架构的编程时代。

随着Intel硬件及软件战略的推进,毫无疑问未来AI会成为种种芯片算力的关键。就酷睿处置惩罚器来说,AI也成为CPU、GPU标配算力,而且它的性能增长潜力要比传统盘算更大,未来几年里动辄数倍的性能提升会是常态。