百度牵手Intel:定制化开发Nervana神经网络处理器人工智能

2019-07-05    来源:AI基地    编辑:吉吉吴
未来几年,人工智能模型的复杂性将会激增,对大规模深度学习计算的需求也会激增。

       百度AI开发者大会上,英特尔公司副总裁兼人工智能产品事业部总经理Naveen Rao宣布,英特尔正与百度合作开发英特尔Nervana神经网络训练处理器(NNP-T)。这一合作包括全新定制化加速器,以实现极速训练深度学习模型的目的。
 

       英特尔表示,这款与百度合作开发的处理器简称 NNP-T,代号为“Spring Crest”;它的开发意味着 AI 模型硬件的发展进入“新阶段”,因为它可以加速大规模分布式训练;它还对图像识别进行了优化,删去了标准的快取阶层(cache hierarchy),片上存储器(on-chip memeory)直接由软件管理。

        Naveen Rao表示:“未来几年,AI模型的复杂性以及对大规模深度学习计算的需求将爆发式增长。英特尔和百度将延续双方十多年的合作并聚焦于联合设计和开发全新的硬件以及配套软件,从而向'AI 2.0'的新疆界不断迈进。”
 

       英特尔将代号为“Spring Crest”的16nm NNP-T描述为“新型”人工智能模型硬件,旨在“大规模加速分布式培训”。“它针对图像识别进行了优化,其架构与其他芯片不同,因为它缺乏标准的缓存层次结构,芯片上的内存由软件直接管理。英特尔声称,NNP- t的24个计算集群、32GB的HBM2栈和本地SRAM使其能够提供最多10倍于竞争显卡的人工智能训练性能,以及该公司首款NNP芯片Lake Crest 3-4倍的性能,此次英特尔与百度的密切合作能够确保英特尔开发部门始终紧跟客户对训练硬件的最新需求。
 

百度 Intel 联手打造新一代 Nervana NNP 芯片,性能提升 3 到 4 倍
 

        NNP-T预计将在今年晚些时候与10nm Nervana神经网络推断处理器(NNP-I)一起上市。NNP-I是一种人工智能推理芯片,基于英特尔冰湖架构,封装了通用处理器核心。

       据了解,近年来,英特尔与百度已经共同创建了许多基于 AI 应用的解决方案。
 

百度 Intel 联手打造新一代 Nervana NNP 芯片,性能提升 3 到 4 倍
 

         从2016年起,英特尔便一直针对英特尔至强可扩展处理器优化百度飞桨(PaddlePaddle)深度学习框架。如今,通过为百度飞桨优化NNP-T,双方能够为数据科学家提供更多的硬件选择。Constellation 研究公司的首席分析师兼副总裁 Holger Mueller 表示,处理器架构和平台需要针对进行优化才能发挥作用,无论是目前的还是即将推出的处理器,这就解释了英特尔与百度本次合作的重要性。
 

        两家公司探讨了集成百度 PaddlePaddle 和英特尔 nGraph DNN(Deep Nerual Network)编译器,有了 nGraph 的助力,数据科学家只用编写一次代码就可以让自己的 DNN 模型在各个平台上有效地运行,无需做额外的调整。

       与此同时,英特尔还通过更多技术来进一步增强这些AI解决方案的性能。例如,凭借英特尔傲腾数据中心级持久内存所提供的更高内存性能,百度能够通过其Feed Stream(信息流)服务向数百万用户提供个性化移动内容,并通过百度AI推荐引擎获得更高效的客户体验。

        此外,鉴于数据安全对于用户极其重要,英特尔还与百度共同致力于打造基于英特尔软件保护扩展(SGX)技术的MesaTEE --内存安全功能即服务(FaaS)计算框架。前不久,百度和英特尔还推出了全新硬件产品 BIE-AI-BOX。这款产品融合了百度智能边缘技术,连接摄像头进行车内视频监控和分析。

       百度与英特尔各取所长,将会持续开发和优化加速NNP-T处理器,不仅能将大规模神经网络训练的步骤化繁为简,还能在一定程度上,加速 Naveen Rao 所说的 AI 2.0 的到来。

1
3