英伟达发布Magnum IO,让GPU直接读取内存,强化AI超级电脑性能

之前英伟达发表将CUDA带进Arm架构处理器的超级电脑后,在2019年Supercomputing超级运算大会上,发表了能让图形处理器绕过CPU,直接读取内存数据的Magnum IO软件套件,能够有效降低运算过程中的延迟,大幅提升整体性能。

打通AI运算任督二脉

由于AI运算与一般运算的特性有所不同,所以往往对图形处理器(GPU)的资源需求高于处理器(CPU),而且需要运算过程需要读取大量数据,造成电脑时所需要的图形处理器数量会高于处理器,且许多运算时间会浪费在图形处理器读取内存的延迟。

之前英伟达在2019年国际超级运算大会(International Supercomputing Conference)发表了CUDA on Arm,让采用Arm架构处理器建置的超级电脑也能使用英伟达图形处理器进行高性能运算(High Performance Computing,以下简称HPC ),并预计在2019年底达到支持600款HPC运算软件与全部AI框架的目标,其中也支持英伟达的CUDA-X AI与HPC函数库。

如此一来无论处理器的架构为Arm、Power、x86的电脑,都能通过英伟达图形处理器为AI运算加速,让使用者可以选择适合自身使用环境的处理器,例如利用Arm架构处理器追求更高的效率。而在2019年Supercomputing超级运算大会上,英伟达进一步宣布Magnum IO软件套件,可以通过最佳化方式消除储存、I/O造成的性能瓶颈。根据官方提供的说明,能提升多服务器、多图形处理器的运算节点在处理复杂金融分析、气候预测时数据处理性能达20倍,让数据科学家与AI、HPC研究员在数分钟内完成原本需要花费数小时的工作。英伟达发表了全新支持图形处理器加速的Arm服务器设计参考平台,以满足各种云端运算与HPC需求。

▲ 英伟达发表了全新支持图形处理器加速的Arm服务器设计参考平台,以满足各种云端运算与HPC需求。

使用Arm处理器搭配英伟达图形处理器建构服务器最大的优势,就是能够提升整体能源效率。

▲使用Arm处理器搭配英伟达图形处理器建构服务器最大的优势,就是能够提升整体能源效率。

 

英伟达与Arm、Ampere、Cray、Fujitsu、HPE、Marvell等厂商携手打造多种图形处理器加速服务器。

▲ 英伟达与Arm、Ampere、Cray、Fujitsu、HPE、Marvell等厂商携手打造多种图形处理器加速服务器。

Magnum IO能够有效提升包括上图DGX SuperPOD在内等多种搭载英伟达图形处理器服务器的数据处理性能达20倍。

▲ Magnum IO能够有效提升包括上图DGX SuperPOD在内等多种搭载英伟达图形处理器服务器的数据处理性能达20倍。

Magnum IO的主要功能在将低图形处理器读取数据的延迟与处理器占用率。

▲ Magnum IO的主要功能在将低图形处理器读取数据的延迟与处理器占用率。

Magnum IO能在多服务器、多图形处理器的运算节点发挥功效。

▲ Magnum IO能在多服务器、多图形处理器的运算节点发挥功效。

与Microsoft共推云端运算

企业除了可以自行架设服务器外,Microsoft全新的Azure NDv2系列虚拟机器最多能在单个Mellanox InfiniBand后端网路提供高达800个的英伟达 Tesla V100图形处理器,加快企业部署AI运算的速度。

如此一来企业只需在自己的办公室租用虚拟机器,并在短短几个小时内完成过去需要花费数月的AI运算超级电脑部署工作,大大降低时间成本。企业客户可以直接租用Microsoft提供的Azure NDv2系列虚拟机器,快速部署AI运算超级电脑。

▲企业客户可以直接租用Microsoft提供的Azure NDv2系列虚拟机器,快速部署AI运算超级电脑。

对此英伟达副总裁兼加速运算总经理Ian Buck说:「相较于之前只有世界级的大企业与组织能拥有AI与HPC运算的超级电脑,但Microsoft Azure新产品的催化让AI变的更加民主化(Microsoft Azure’s new offering democratizes AI),让人们能有更多工具能解决各项重大挑战。

RIPRO主题是一个优秀的主题,极致后台体验,无插件,集成会员系统
不思进取 » 英伟达发布Magnum IO,让GPU直接读取内存,强化AI超级电脑性能

发表评论

提供最优质的资源集合

立即查看 了解详情