英特尔展示两款神经网络处理器NNP NNP-T拥有270亿个晶体管

投稿人/来源:电子发烧友网 | 2019-11-27 15:42:12 |

电子发烧友网报道,北京时间11月13日凌晨2点,英特尔在旧金山举行2019人工智能峰会,推出代号为Keem Bay的下一代Movidius VPU,可用于边缘媒体、计算机视觉和推理应用,并计划于明年上半年上市。此外,英特尔还在现场展示了Nervana神经网络处理器(NNP),并正式宣告商用。

英特尔副总裁兼人工智能产品事业部总经理Naveen Rao在现场演讲中表示,“随着英特尔AI产品的更新与发布,AI解决方案的产品组合也将得到进一步的提升与优化,而这也有望在2019年创造超过35亿美元的营收。”

Movidius Myriad视觉处理单元(VPU):KeemBay

英特尔Movidius Myriad视觉处理单元(VPU),代号为KeemBay,其经过优化可在边缘端进行工作负载的推理。性能方面,与上一代VPU相比,KeemBay的推理性能提升了10倍以上,能效则可以达到竞品的6倍。功耗方面,KeemBay的功耗约为30W,比英伟达的TX2快4倍,比华为海思的昇腾310快1.25倍。

英特尔物联网事业部副总裁兼视觉市场和渠道部门总经理Jonathan Ballon表示,“该芯片拥有新的片上存储器架构。同时,Keem Bay提供的Tops推理量是英伟达Xavier的4倍,在充分利用的情况下,该芯片可帮助客户获得50%的额外性能。与同类竞品相比,KeemBay的性能比GPU的性能更好,不仅功率、大小和成本都实现了一定程度的降低,而且还进一步补充了我们完整的产品、工具和服务产品组合。”

Nervana神经网络处理器(NNP):NNP-T和NNP-I

今年,英特尔在面向AI推理和AI训练领域,相继推出了NNP-T和NNP-I两款Nervana神经网络处理器,专为大型数据中心而设计。同时,Nervana神经网络处理器也是英特尔研发的首个针对复杂深度学习的专用ASIC芯片,主要提供给云端和数据中心客户。作为系统级AI解决方案的一部分,Nervana神经网络训练处理器目前已经投入生产,并已完成客户交付。

NNP-T

NNP-T采用台积电16nm制程工艺,拥有270亿个晶体管,硅片总面积达680平方毫米。应用上,它据有高度的可编程性,并支持所有主流深度学习框架,如TensorFlow、PYTORCH训练框架和C++深度学习软件库等。同时,它还能够实现计算、通信和内存之间的平衡,而且不管是针对小规模群集,还是最大规模的pod超级计算机,它都可以进行近乎线性且极具能效的扩展。

NNP-I

NNP-I基于英特尔10nm IceLake处理器架构,同样支持所有的主流深度学习框架,在ResNet50上的效率可达4.8TOPs/W,功率范围为10W到50W之间。此外,它具有高能效和低成本,能将传统的AI和多个引擎结合,实现高效率的AI推理工作负载,适合在实际规模下运行高强度的多模式推理。

目前,英特尔的许多客户已将其AI解决方案应用于各个层级的设备,部署在本地数据中心和超大规模公有云设施中。值得一提的是,这两款Nervana神经网络处理器主要面向英特尔的前沿AI客户,如百度和Facebook等,并针对这些企业的AI处理需求进行定制开发。

Intel豪赌AI

据IDC最近发布的预测,经过连续三年的业务增长后,目前半导体的市场总额已经下滑了逾7%,预计今年全年将会下滑超过两位数,而这是自2009年以来都没有过的下跌幅度。在这样的大背景下,NAND等存储产品价格暴跌,自动驾驶等新业务的需求增长也在放缓。

受市场整体收缩,尤其是存储市场缩水的影响,Intel的主营业务受到了不同程度的影响。而在这样的外患之下,Intel卖掉5G基带芯片部门、10nm工艺PC端CPU难产等自身弱点频繁出现,业内唱衰Intel已经成为主流。

包揽了PC和服务器端的CPU,Intel在逻辑计算市场上的能力是毋庸置疑的,但是由于未来对多种并行计算的需求日益增长,只单纯具备一种芯片的设计能力显然已经不足以应付市场的变化。

从这场大会发布的产品来看,Intel已然实现“弯道超车”,逐步进入云-边-端市场,而它也将押注AI。