您的位置首页>硬件>

英特尔深入探讨Nervana NNP-T27亿个晶体管32GB HBM2

导读 英特尔在热门芯片31上公布了其备受期待的Spring Crest深度学习加速器的详细细节 Nervana神经网络训练处理器(NNP-T)配备了24个处理核心和新

英特尔在热门芯片31上公布了其备受期待的Spring Crest深度学习加速器的详细细节.Nervana神经网络训练处理器(NNP-T)配备了24个处理核心和新的数据移动功能由32GB的HBM2内存供电。宽大的270亿个晶体管分布在688平方毫米的芯片上。奇怪的是,NNP-T还采用了英特尔竞争对手台积电的尖端技术。

人工智能和机器学习已经风靡数据中心,重新定义了如何在极短的时间内大规模使用和部署计算机。因此,在超级计算领域,GPU长期成为人工智能培训工作负载的首选解决方案的兴起一直是爆炸性的。在2008年,没有一台超级计算机使用GPU进行计算,而是依赖于久经考验的CPU,但现在500强超级计算机中80%的计算能力都来自GPU。正如我们一次又一次看到的那样,HPC和超级计算的趋势向更广泛的数据中心过滤,因此AI / ML工作负载的激增对英特尔数据中心的主导地位构成了威胁,因为每个GPU都取代了几个Xeon处理器。

作为回应,英特尔已经开发出一种多管齐下的方法来保持方向盘。计算密集型培训工作负载创建复杂的神经网络,运行对象识别,语音转换和语音合成工作负载,仅举几例,然后将其部署为轻量级推理代码。由于它们无处不在,至强处理器仍然是计算密集程度较低的推理工作负载的首选平台,但英特尔正在开发多种解决方案来解决培训工作量问题,这些问题仍然是Nvidia GPU的重要基础。

Nvidia声称GPU是所有形式的AI和机器学习的最终解决方案,但英特尔坚持认为每种工作负载都有不同的解决方案。英特尔对培训的部分回应将以即将推出的Xe图形架构和Altera衍生的FPGA的形式出现,但该公司还有一系列新的定制Nervana硅片用于培训工作负载。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。