日本创企PFN发大招!展示MN

作者: 日期:2019-12-07

智东西
编 | 云鹏


智东西11月25日音讯,日本AI创企Preferred Networks在美国科罗拉多州丹佛市举办的2019全球超级核算大会上展现了定制AI练习芯片MN-Core,能够在500W的功耗基础上完成524TFLOPS算力,核算功率功率到达了1.05 TFLOPS / W,逾越NV Tesla V100、华为昇腾910等AI芯片的能效比。

PFN成立于2014年,总部坐落日本东京,现在已筹集了约1.3亿美元,其间日本丰田公司出资了9,660万美元。PFN首要致力于经过深度学习技能为边际和物联网供给算力支撑。此次展现的MN-Core依据台积电12nm工艺制作。以下是对WikiChipFuse相关报导的原文编译。

在全球超级核算机大会中PFN的展位上,咱们会见了东京大学名誉教授Kei Hiraki。Hiraki教授一向参加PFN的MN-Core的开发。Hiraki解说说,PFN现已开发了一系列专用超级核算机,以加快其自己的应用程序的研制,这些应用程序运用很多的核算才干来进行深度学习。

该公司于2017年推出了首个AI超级核算机MN-1。该系统具有1,024个Nvidia Tesla P100 GPU,可到达1.39 PFLOPS和9.3PFLOPS的峰值核算量。其时,MN-1在工业超级核算机的TOP500上在日本排名榜首,在世界排名第十二。

在2018年7月,PFN经过增加512个额定的Tesla V100 GPU增强了MN-1。较新的系统MN-1b将深度学习的核算才干进步到56 PFLOPS。

本年早些时候,PFN推出了迄今为止最大的超级核算机MN-2。该系统于2019年7月投入运转,该系统将V100 GPU的数量增加了一倍,并从PCIe卡切换为SXM2模块。

▲历代PFN超级核算机

PFN下一代超级核算机愈加风趣。Hiraki教授解说说,PFN决议开发自己的专有深度学习加快器,以完成更高的功用,更重要的是完成更高的电源功率。

他们规划的是500瓦芯片,Hiraki表明这是在或许的冷却极限内进行的。该芯片自身在一个多芯片封装中包括四个内核。内核是依据公司自己的规划,以台积电12nm工艺制作。

▲MN-Core

在上面的芯片照片中,芯片上刻有单词“ GRAPE-PFN2”。虽然尚不清楚刻制的原因,但好像有些系统架构源自GRAPE-DR。还需要指出的是,PFN团队的成员曾经曾在GRAPE-DR物理协处理器项目中作业,包括Hiraki教授。

MN-Core封装尺度比较大,为85*85mm。内核面积也十分大,到达756.7mm²。在500 W功耗时,该芯片的算力为524TFLOPS。这为他们供给了1.05 TFLOPS / W的核算功率功率,这正是他们的方针。

该系统结构相似于GRAPE协处理器的系统结构。虽然对各个区块进行了调整以用于练习任务,但各个区块的称号都很相似,而且整体操作十分相似。

MN-Core有DRAM I / F,PICe I / F和4个L2B区块。每个L2B中有8个L1B和1个区块存储器。一级区块包括16个矩阵算术区块以及其自己的区块存储器。矩阵算术单元和4个处理元件组成一个MAB。每个芯片总共有512个MAB。

各个PE将数据传递给MAU,PE包括一个ALU并完成了PFN专门运用的许多自定义DL功用。PE的根本数据类型操作是16位浮点数,经过组合多个PE能够支撑更高精度的操作。

▲MN-Core内部架构图

MN-Core芯片自身坐落MN-Core板上,后者是一种PFN规划的依据PCIe的定制加快器板。Hiraki教授表明,芯片功耗为500W,0.55 V,有1000 A电流流经电路板,而封装对规划构成了严重应战。

该板自身是x16 PCIe Gen 3.0卡,其间集成了MN-Core芯片,32 GiB内存以及定制规划的散热器和电扇。PFN估量该卡的功耗约为600瓦。

▲搭载MN-Core的板卡

在MN-Core服务器上安装了四个MN-Core板。每个服务器中都有一个双插槽CPU。四个板使它们每秒能够到达2 PFLOPS的半精度浮点运算。

▲MN-Core板卡和服务器标准

PFN方案在每个机架上堆叠其4台服务器。他们的下一代超级核算机MN-3将依据MN-Core。

▲MN-3超算概念图

PFN现在没有出售这种芯片的方案。MN-Core芯片和他们的超级核算机将专门用于自己的研制。

PFN估量MN-3具有约300个机架,可用于4800个MN-Core板。这相当于每秒2 EFLOPS的算力。在功耗方面,PFN估量该机器的功率为3.36 MW,关于这种功用而言这是十分低的。例如,具有1.88 EFLOPS算力的IBM Summit超级核算机功率为13MW。MN-3方案于2020年投入运营。

现在Google和Amazon等超大规模用户为自己的云服务器开发了自定义神经处理器。相似的趋势正在职业中呈现,比如Preferred Networks之类的公司规划了自己的NPU。

他们的意图都是相同的——经过规划和研制自己芯片,以便具有共同的,异乎寻常的技能优势。现在,只要少量几家AI硬件草创公司推出了AI推理芯片,而没有一家草创公司交给AI练习芯片。这种专业练习芯片的缺少,给能够制作逾越当时尖端练习GPU能效比的AI芯片的公司带来了共同的机会。

跟着越来越多的企业进入AI练习芯片范畴,整个商场格式或许将会发生变化。

此次PFN推出的MN-Core AI练习芯片,不管在肯定算力仍是能效比方面都处于全球抢先队伍,不过该公司预备将这项效果把握在自己手中,用于后续研制,之后是否会商用还未表态。

进步芯片的算力和深度学习推理才干是当下的大趋势,MN-Core的推出丰厚了当下相对匮乏的AI练习芯片商场,为大规模超算供给了一种新的解决方案。

不管是谷歌、华为、英伟达、英特尔,都将自研AI芯片作为重点发力方向之一,唯有把握“中心”,才干把握中心技能优势。AI芯片算力商场,亟待更多新力量参加。

原文来自:WikiChipFuse

首页
电话
短信
联系