CN111858454B - 一种gpu通信方法、设备以及介质 - Google Patents
一种gpu通信方法、设备以及介质 Download PDFInfo
- Publication number
- CN111858454B CN111858454B CN202010602573.7A CN202010602573A CN111858454B CN 111858454 B CN111858454 B CN 111858454B CN 202010602573 A CN202010602573 A CN 202010602573A CN 111858454 B CN111858454 B CN 111858454B
- Authority
- CN
- China
- Prior art keywords
- gpu
- data block
- transmitted
- compression
- allgather
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000004891 communication Methods 0.000 title claims abstract description 22
- 238000007906 compression Methods 0.000 claims abstract description 57
- 230000006835 compression Effects 0.000 claims abstract description 56
- 230000006837 decompression Effects 0.000 claims abstract description 39
- 238000004590 computer program Methods 0.000 claims description 14
- 230000005540 biological transmission Effects 0.000 abstract description 17
- 238000013144 data compression Methods 0.000 abstract description 7
- 238000010586 diagram Methods 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
- G06F15/16—Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
- G06F15/163—Interprocessor communication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0495—Quantised networks; Sparse networks; Compressed networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Computer Hardware Design (AREA)
- Computing Systems (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本发明公开了一种GPU通信方法,包括以下步骤:使每一个GPU针对各自的第一个待传输的数据块执行reduce操作,以使所述每一个GPU得到中间数据块;对所述每一个GPU上的所述中间数据块执行压缩操作;对所述每一个GPU执行allgather操作,以使所述每一个GPU分别向其他所有GPU发送自身的所述中间数据块;对所述每一个GPU接收到的若干个所述中间数据块和自身的所述中间数据块执行解压操作。本发明还公开了一种***、计算机设备以及可读存储介质。本发明提出的方案以环形通信为基础,采用了数据压缩的方法,减少了传输时数据量,提升了传输带宽。
Description
技术领域
本发明涉及GPU领域,具体涉及一种GPU通信方法、设备以及存储介质。
背景技术
深度学习的大规模数据并行训练带来了越来越大的时间开销,在高速传输网络,硬件成本高昂的情况下,如何合理高效的利用低速网络传输也是我们要解决的问题。低速网络的低传输效率,已经逐渐成为了神经网络大规模训练的瓶颈。
环形通信算法是GPU通信的常用方法,常在数据量较大时使用环形通信算法,其可以有效的利用pipeline技术,在多GPU上有良好的扩展性。但是在低速网络的限制下,例如在部分PCIE连接下,其传输速度仅有7.5GB/s左右,这已经逐渐成为了GPU计算的瓶颈。
发明内容
有鉴于此,为了克服上述问题的至少一个方面,本发明实施例提出一种GPU通信方法,包括以下步骤:
使每一个GPU针对各自的第一个待传输的数据块执行reduce操作,以使所述每一个GPU得到中间数据块;
对所述每一个GPU上的所述中间数据块执行压缩操作;
对所述每一个GPU执行allgather操作,以使所述每一个GPU分别向其他所有GPU发送自身的所述中间数据块;
对所述每一个GPU接收到的若干个所述中间数据块和自身的所述中间数据块执行解压操作。
在一些实施例中,还包括:
在使所述每一个GPU针对各自的所述第一个待传输的数据块执行所述解压操作的同时,使所述每一个GPU针对各自的第二个待传输的数据块开始依次执行所述reduce操作、所述压缩操作、所述allgather操作以及所述解压操作。
在一些实施例中,还包括:
在使所述每一个GPU针对各自的所述第一个待传输的数据块执行所述压缩操作后,使所述每一个GPU针对各自的第三个待传输的数据块开始依次执行所述reduce操作、所述压缩操作、所述allgather操作以及所述解压操作。
在一些实施例中,还包括:所述每一个GPU针对各自的所述第二个待传输的数据块执行所述压缩操作的同时执行所述每一个GPU针对各自的所述第三个待传输的数据块的所述allgather操作。
在一些实施例中,还包括:所述每一个GPU针对各自的所述第一个待传输的数据块执行所述allgather操作的同时执行所述每一个GPU针对各自的所述第三个待传输的数据块的所述压缩操作。
在一些实施例中,还包括:
在使所述每一个GPU针对各自的所述第三个待传输的数据块进行所述解压操作的同时,使所述每一个GPU针对各自的第四个待传输的数据块开始依次执行所述reduce操作、所述压缩操作、所述allgather操作以及所述解压操作。
在一些实施例中,还包括:所述每一个GPU针对各自的所述第二个待传输的数据块执行所述allgather操作的同时执行所述每一个GPU针对各自的所述第四待传输的数据块的所述压缩操作。
在一些实施例中,所述reduce操作包括:
将所述每一个GPU中待传输的数据块分为多个子数据块,以使所述每一个GPU分别向其他所有GPU发送一个对应的子数据块,并使所述每一个GPU对接收到若干个子数据块和自身的一个子数据块进行相加以得到中间数据块。
基于同一发明构思,根据本发明的另一个方面,本发明的实施例还提供了一种计算机设备,包括:
至少一个处理器;以及
存储器,所述存储器存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时执行如上所述的任一种GPU通信方法的步骤。
基于同一发明构思,根据本发明的另一个方面,本发明的实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时执行如上所述的任一种GPU通信方法的步骤。
本发明具有以下有益技术效果之一:本发明提出的方案以环形通信为基础,采用了数据压缩的方法,减少了传输时数据量,提升了传输带宽。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1为本发明的实施例提供的GPU通信方法的流程示意图;
图2为本发明的实施例提供的在每一个GPU将待传输的数据块分成多个子数据块后的示意图;
图3为本发明的实施例提供的在每一个GPU进行reduce操作后的示意图;
图4为本发明的实施例提供的在每一个GPU进行压缩操作后的示意图;
图5为本发明的实施例提供的在每一个GPU进行allgather操作后的示意图;
图6为本发明的实施例提供的在每一个GPU进行解压操作后的示意图;
图7为本发明的实施例提供的流水线的示意图;
图8为本发明的实施例提供的另一个流水线的示意图;
图9为本发明的实施例提供的表1;
图10为本发明的实施例提供的表2;
图11为本发明的实施例提供的计算机设备的结构示意图;
图12为本发明的实施例提供的计算机可读存储介质的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。
需要说明的是,本发明实施例中所有使用“第一”和“第二”的表述均是为了区分两个相同名称非相同的实体或者非相同的参量,可见“第一”“第二”仅为了表述的方便,不应理解为对本发明实施例的限定,后续实施例对此不再一一说明。
根据本发明的一个方面,本发明的实施例提出一种GPU通信方法,如图1所示,其可以包括步骤:
S1,使每一个GPU针对各自的第一个待传输的数据块执行reduce操作,以使所述每一个GPU得到中间数据块;
S2,对所述每一个GPU上的所述中间数据块执行压缩操作;
S3,对所述每一个GPU执行allgather操作,以使所述每一个GPU分别向其他所有GPU发送自身的所述中间数据块;
S4,对所述每一个GPU接收到的若干个所述中间数据块和自身的所述中间数据块执行解压操作。
本发明提出的方案以环形通信为基础,采用了数据压缩的方法,减少了传输时数据量,提升了传输带宽。
在一些实施例中,所述reduce操作包括:
将所述每一个GPU中待传输的数据块分为多个子数据块,以使所述每一个GPU分别向其他所有GPU发送一个对应的子数据块,并使所述每一个GPU对接收到若干个子数据块和自身的一个子数据块进行相加以得到中间数据块。
具体的,首先将某个待传输的数据均等的分为n块,然后指定左右邻居,然后执行n-1次规约操作,其中在第i次操作中GPU-j会将自己的第(j-i)%n块数据发送给右邻居,并接受左邻据的(j-i-1)%n块数据。并将接受来的数据进行reduce操作。
例如,如图2所示,以4个GPU为例,ALL_reduce类型选为SUM。图2示出的每一个GPU待传输的数据块均为左侧部分,并且每一个CPU的左侧部分均分为4份,这样在scatter_reduce之后,每个GPU得到了四分之一个待传输的数据块相加后的数据,如图3所示,GPU0得到了GPU1的子数据块B1,GPU2的子数据块C1,GPU3的数据块D1,最终GPU0利用自身的子数据块A1和得到的子数据块B1、C1、D1相加得到中间数据块;
GPU1得到了GPU0的子数据块A2,GPU2的子数据块C2,GPU3的数据块D2,最终GPU1利用自身的子数据块B2和得到的子数据块A2、C2、D2相加得到中间数据块;
GPU2得到了GPU0的子数据块A3,GPU1的子数据块B3,GPU3的数据块D3,最终GPU2利用自身的子数据块C3和得到的子数据块A3、B3、D3相加得到中间数据块;
GPU3得到了GPU0的子数据块A4,GPU1的子数据块B4,GPU2的数据块C4,最终GPU3利用自身的子数据块D4和得到的子数据块A4、B4、C4相加得到中间数据块。
在一些实施例中,步骤S2,对各自的所述每一个GPU上的所述中间数据块执行压缩操作中,具体的,在每一个GPU得到中间数据块后,对中间数据块进行压缩处理,如图4所示,在图4中,采用网状格代表压缩后的数据,即GPU0中对子数据块A1和得到的子数据块B1、C1、D1进行压缩,GPU1中对子数据块B2和得到的子数据块A2、C2、D2进行压缩,GPU0中对子数据块C3和得到的子数据块A3、B3、D3进行压缩,GPU0中对子数据块D4和得到的子数据块A4、B4、C4进行压缩。
在一些实施例中,为了考虑其通用性,我们选择的压缩算法为固定比例的浮点压缩算法,该压缩算法可以调节其固定压缩压缩比来满足不同精度的需求。其压缩算法由开源代码zfp已经实现,可以使用其开源库作为压缩工具,结合到环形通信当中。其中zfp作为开源代码库,支持浮点数和整数的数据压缩。并且支持固定精度、固定比率多种形式并且支持一维、二维等不同维数的数据压缩。且提供了不同的C++、python等多种接口。还可以采用了其固定压缩比率的形式,并且截取了其内部实现的cuda代码。Zfp内部压缩方法是基于正交变换得来的,主要的损失则来自低位的舍取,由于其方法由开源代码实现,这里不再详细讲述。
在一些实施例中,步骤S3,对所述每一个GPU执行allgather操作,以使所述每一个GPU分别向其他所有GPU发送自身的所述中间数据块中,具体的,如图5所示,在每一个GPU对对应的中间数据块压缩后,对其进行allgather传输,使其每个GPU均得到全部的压缩数据,即GPU0-GPU3均得到了由子数据块A1、B1、C1、D1压缩后的中间数据块,由子数据块A2、B2、C2、D2压缩后的中间数据块,由子数据块A3、B3、C3、D3压缩后的中间数据块以及由子数据块A4、B4、C4、D4压缩后的中间数据块。
在一些实施例中,步骤S4,对所述每一个GPU接收到的若干个所述中间数据块和自身的所述中间数据块执行解压操作中,具体的,如图6所示,当每一个GPU得到所有的中间数据块后,对所有的中间数据块进行解压,这样使每个GPU到全部数据块相加后的数据。
在一些实施例中,还包括:
在使各自的所述每一个GPU针对所述第一个待传输的数据块执行所述解压操作的同时,使所述每一个GPU针对各自的第二个待传输的数据块开始依次执行所述reduce操作、所述压缩操作、所述allgather操作以及所述解压操作。
具体的,为了减少压缩与解压会占用的计算时间从而影响其程序效率,采取了双pipeline来隐藏压缩与解压时间,提高程序效率。如图7所示,可以看出针对四个待传输的数据块分别执行了所述reduce操作、所述压缩操作、所述allgather操作以及所述解压操作,其中第一待传输的数据块、第二待传输的数据块组成第一层pipeline(pipeline1),第三待传输的数据块和第四待传输的数据块组成第二层pipeline(pipeline2)。在每一层pipeline中(以pipeline1为例),首先启动每一个GPU执行对第一待传输的数据块的操作,在所述每一个GPU针对所述第一个待传输的数据块执行所述解压操作的同时,使所述每一个GPU针对第二个待传输的数据块开始依次执行所述reduce操作、所述压缩操作、所述allgather操作以及所述解压操作。这样针对第一个待传输的数据块的解压缩操作与针对第二个待传输的数据块的的reduce操作同时进行,借以隐藏了decompress时间。
在一些实施例中,还包括:
在使各自的所述每一个GPU针对所述第一个待传输的数据块执行所述压缩操作后,使所述每一个GPU针对各自的第三个待传输的数据块开始依次执行所述reduce操作、所述压缩操作、所述allgather操作以及所述解压操作。
具体的,Pipeline2在针对第一个待传输的数据块执行压缩操作后开启,使其allgather与压缩操作同时进行隐藏了压缩时间。即在使所述每一个GPU针对所述第一个待传输的数据块执行所述压缩操作后,使所述每一个GPU针对第三个待传输的数据块开始依次执行所述reduce操作、所述压缩操作、所述allgather操作以及所述解压操作。
在一些实施例中,如图7所示,还包括:所述每一个GPU针对各自的所述第二个待传输的数据块执行所述压缩操作的同时执行所述每一个GPU针对所述第三个待传输的数据块的所述allgather操作。
在一些实施例中,如图7所示,还包括:所述每一个GPU针对各自的所述第一个待传输的数据块执行所述allgather操作的同时执行所述每一个GPU针对各自的所述第三个待传输的数据块的所述压缩操作。
在一些实施例中,还包括:
在使所述每一个GPU针对各自的所述第三个待传输的数据块进行所述解压操作的同时,使所述每一个GPU针对各自的第四个待传输的数据块开始依次执行所述reduce操作、所述压缩操作、所述allgather操作以及所述解压操作。
具体的,在Pipeline2中,如图7所示,在使所述每一个GPU针对各自的所述第三个待传输的数据块执行所述解压操作后,使所述每一个GPU针对各自的第四个待传输的数据块开始依次执行所述reduce操作、所述压缩操作、所述allgather操作以及所述解压操作。
在一些实施例中,如图7所示,还包括:所述每一个GPU针对各自的所述第二个待传输的数据块执行所述allgather操作的同时执行所述每一个GPU针对各自的所述第四待传输的数据块的所述压缩操作。
需要说明的是,由于allgather传输主要是占用的通信带宽对计算资源占用较低,因此allgather操作与压缩操作两者同时进行不会产生计算资源的争夺,不会相互产生影响。并通过调整每次ring传输数据量的大小、改变zfp每个线程压缩数据量,使其compress与decompress时间小于allgather和reduce时间,使其不会影响传输时间,能够让流水线高效的运行。
在一些实施例中,如图8所示,由于每一个待传输的数据块的大小可以控制并且数据块的大小有范围限制,因此当每一个GPU待传输的数据块的数量大于4时,则按照将第五个待传输的数据块作为第一个待传输的数据块、将第六个待传输的数据块作为第二个待传输的数据块,第七个待传输的数据块作为第三个待传输的数据块,第八个待传输的数据块作为第四个待传输的数据块按照上述逻辑依次进行所述reduce操作、所述压缩操作、所述allgather操作以及所述解压操作,并且第五个待传输的数据块的reduce操作在第四个待传输的数据块执行所述压缩操作后,开始依次执行所述reduce操作、所述压缩操作、所述allgather操作以及所述解压操作,依次类推。即,第4N+1个待传输的数据块作为第一个待传输的数据块、将第4N+2个待传输的数据块作为第二个待传输的数据块,第4N+3个待传输的数据块作为第三个待传输的数据块,第4N+4个待传输的数据块作为第四个待传输的数据块按照上述逻辑依次进行所述reduce操作、所述压缩操作、所述allgather操作以及所述解压操作,并且第4N+1个待传输的数据块的reduce操作在第4N个待传输的数据块执行所述压缩操作后,开始依次执行所述reduce操作、所述压缩操作、所述allgather操作以及所述解压操作。其中,N取正整数。
在一些实施例中,若数据块的数量不满足4N个,则不进行压缩和解压的操作,只执行reduce和allgather操作。
总的来说通过双流水线的操作,得以将压缩步骤与ring_allgather步骤、解压与scatter_reduce同时进行,借此来隐藏压缩与解压时间,并且有效的降低其数据传输量,提高传输带宽。并将其结合在nccl(最通用的gpu通信软件)当中,大大增加了使用的便利性。在数据压缩倍数为2的情况下,程序可以得到1.22倍的加速比,可以采用双流水线策略,能够使程序在有效的降低传输数据量的同时,隐藏掉额外带来的压缩解压时间,带来总体上传输效率的提升。
根据本发明提出的方案,在T4 AI服务器(PCIE架构)上进行了测试,如图9和图10所示,表1为在3.2倍压缩比下与nccl数据对比的测试数据,表2在2倍压缩比下与nccl数据对比的测试数据,其中测试程序为nccl官方测试程序,从表中可以看出在一定误差要求下,最高可获得1.4倍的加速比提升。在几乎无精度损失的情况下,也可以得到1.22倍的加速比。从结果可以看出,通过数据压缩有效的提高了gpu的通信带宽,在一定程度上解决了GPU低速网络,通信效率较低的问题。
基于同一发明构思,根据本发明的另一个方面,如图11所示,本发明的实施例还提供了一种计算机设备501,包括:
至少一个处理器520;以及
存储器510,存储器510存储有可在处理器上运行的计算机程序511,处理器520执行程序时执行如上的任一种GPU通信方法的步骤。
基于同一发明构思,根据本发明的另一个方面,如图12所示,本发明的实施例还提供了一种计算机可读存储介质601,计算机可读存储介质601存储有计算机程序指令610,计算机程序指令610被处理器执行时执行如上的任一种GPU通信方法的步骤。
最后需要说明的是,本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关硬件来完成,的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,的存储介质可为磁碟、光盘、只读存储记忆体(ROM)或随机存储记忆体(RAM)等。上述计算机程序的实施例,可以达到与之对应的前述任意方法实施例相同或者相类似的效果。
此外,典型地,本发明实施例公开的装置、设备等可为各种电子终端设备,例如手机、个人数字助理(PDA)、平板电脑(PAD)、智能电视等,也可以是大型终端设备,如服务器等,因此本发明实施例公开的保护范围不应限定为某种特定类型的装置、设备。本发明实施例公开的客户端可以是以电子硬件、计算机软件或两者的组合形式应用于上述任意一种电子终端设备中。
此外,根据本发明实施例公开的方法还可以被实现为由CPU执行的计算机程序,该计算机程序可以存储在计算机可读存储介质中。在该计算机程序被CPU执行时,执行本发明实施例公开的方法中限定的上述功能。
此外,上述方法步骤以及***单元也可以利用控制器以及用于存储使得控制器实现上述步骤或单元功能的计算机程序的计算机可读存储介质实现。
此外,应该明白的是,本文的计算机可读存储介质(例如,存储器)可以是易失性存储器或非易失性存储器,或者可以包括易失性存储器和非易失性存储器两者。作为例子而非限制性的,非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦写可编程ROM(EEPROM)或快闪存储器。易失性存储器可以包括随机存取存储器(RAM),该RAM可以充当外部高速缓存存储器。作为例子而非限制性的,RAM可以以多种形式获得,比如同步RAM(DRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据速率SDRAM(DDRSDRAM)、增强SDRAM(ESDRAM)、同步链路DRAM(SLDRAM)、以及直接Rambus RAM(DRRAM)。所公开的方面的存储设备意在包括但不限于这些和其它合适类型的存储器。
本领域技术人员还将明白的是,结合这里的公开所描述的各种示例性逻辑块、模块、电路和算法步骤可以被实现为电子硬件、计算机软件或两者的组合。为了清楚地说明硬件和软件的这种可互换性,已经就各种示意性组件、方块、模块、电路和步骤的功能对其进行了一般性的描述。这种功能是被实现为软件还是被实现为硬件取决于具体应用以及施加给整个***的设计约束。本领域技术人员可以针对每种具体应用以各种方式来实现的功能,但是这种实现决定不应被解释为导致脱离本发明实施例公开的范围。
结合这里的公开所描述的各种示例性逻辑块、模块和电路可以利用被设计成用于执行这里功能的下列部件来实现或执行:通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑器件、分立门或晶体管逻辑、分立的硬件组件或者这些部件的任何组合。通用处理器可以是微处理器,但是可替换地,处理器可以是任何传统处理器、控制器、微控制器或状态机。处理器也可以被实现为计算设备的组合,例如,DSP和微处理器的组合、多个微处理器、一个或多个微处理器结合DSP和/或任何其它这种配置。
结合这里的公开所描述的方法或算法的步骤可以直接包含在硬件中、由处理器执行的软件模块中或这两者的组合中。软件模块可以驻留在RAM存储器、快闪存储器、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动盘、CD-ROM、或本领域已知的任何其它形式的存储介质中。示例性的存储介质被耦合到处理器,使得处理器能够从该存储介质中读取信息或向该存储介质写入信息。在一个替换方案中,存储介质可以与处理器集成在一起。处理器和存储介质可以驻留在ASIC中。ASIC可以驻留在用户终端中。在一个替换方案中,处理器和存储介质可以作为分立组件驻留在用户终端中。
在一个或多个示例性设计中,功能可以在硬件、软件、固件或其任意组合中实现。如果在软件中实现,则可以将功能作为一个或多个指令或代码存储在计算机可读介质上或通过计算机可读介质来传送。计算机可读介质包括计算机存储介质和通信介质,该通信介质包括有助于将计算机程序从一个位置传送到另一个位置的任何介质。存储介质可以是能够被通用或专用计算机访问的任何可用介质。作为例子而非限制性的,该计算机可读介质可以包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储设备、磁盘存储设备或其它磁性存储设备,或者是可以用于携带或存储形式为指令或数据结构的所需程序代码并且能够被通用或专用计算机或者通用或专用处理器访问的任何其它介质。此外,任何连接都可以适当地称为计算机可读介质。例如,如果使用同轴线缆、光纤线缆、双绞线、数字用户线路(DSL)或诸如红外线、无线电和微波的无线技术来从网站、服务器或其它远程源发送软件,则上述同轴线缆、光纤线缆、双绞线、DSL或诸如红外线、无线电和微波的无线技术均包括在介质的定义。如这里所使用的,磁盘和光盘包括压缩盘(CD)、激光盘、光盘、数字多功能盘(DVD)、软盘、蓝光盘,其中磁盘通常磁性地再现数据,而光盘利用激光光学地再现数据。上述内容的组合也应当包括在计算机可读介质的范围内。
以上是本发明公开的示例性实施例,但是应当注意,在不背离权利要求限定的本发明实施例公开的范围的前提下,可以进行多种改变和修改。根据这里描述的公开实施例的方法权利要求的功能、步骤和/或动作不需以任何特定顺序执行。此外,尽管本发明实施例公开的元素可以以个体形式描述或要求,但除非明确限制为单数,也可以理解为多个。
应当理解的是,在本文中使用的,除非上下文清楚地支持例外情况,单数形式“一个”旨在也包括复数形式。还应当理解的是,在本文中使用的“和/或”是指包括一个或者一个以上相关联地列出的项目的任意和所有可能组合。
上述本发明实施例公开实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明实施例公开的范围(包括权利要求)被限于这些例子;在本发明实施例的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,并存在如上的本发明实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。因此,凡在本发明实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。
Claims (9)
1.一种GPU通信方法,其特征在于,包括以下步骤:
使每一个GPU针对各自的第一个待传输的数据块执行reduce操作,以使所述每一个GPU得到中间数据块;
对所述每一个GPU上的所述中间数据块执行压缩操作;
对所述每一个GPU执行allgather操作,以使所述每一个GPU分别向其他所有GPU发送自身的所述中间数据块;
对所述每一个GPU接收到的若干个所述中间数据块和自身的所述中间数据块执行解压操作;
其中,所述reduce操作包括:
将所述每一个GPU中待传输的数据块分为多个子数据块,以使所述每一个GPU分别向其他所有GPU发送一个对应的子数据块,并使所述每一个GPU对接收到若干个子数据块和自身的一个子数据块进行相加以得到中间数据块。
2.如权利要求1所述的方法,其特征在于,还包括:
在使所述每一个GPU针对各自的所述第一个待传输的数据块执行所述解压操作的同时,使所述每一个GPU针对各自的第二个待传输的数据块开始依次执行所述reduce操作、所述压缩操作、所述allgather操作以及所述解压操作。
3.如权利要求2所述的方法,其特征在于,还包括:
在使所述每一个GPU针对各自的所述第一个待传输的数据块执行所述压缩操作后,使所述每一个GPU针对各自的第三个待传输的数据块开始依次执行所述reduce操作、所述压缩操作、所述allgather操作以及所述解压操作。
4.如权利要求3所述的方法,其特征在于,还包括:
所述每一个GPU针对各自的所述第二个待传输的数据块执行所述压缩操作的同时,执行所述每一个GPU针对各自的所述第三个待传输的数据块的所述allgather操作。
5.如权利要求3所述的方法,其特征在于,还包括:
所述每一个GPU针对各自的所述第一个待传输的数据块执行所述allgather操作的同时,执行所述每一个GPU针对各自的所述第三个待传输的数据块的所述压缩操作。
6.如权利要求3所述的方法,其特征在于,还包括:
在使所述每一个GPU针对各自的所述第三个待传输的数据块进行所述解压操作的同时,使所述每一个GPU针对各自的第四个待传输的数据块开始依次执行所述reduce操作、所述压缩操作、所述allgather操作以及所述解压操作。
7.如权利要求6所述的方法,其特征在于,还包括:
所述每一个GPU针对各自的所述第二个待传输的数据块执行所述allgather操作的同时,执行所述每一个GPU针对各自的所述第四个 待传输的数据块的所述压缩操作。
8.一种计算机设备,包括:
至少一个处理器;以及
存储器,所述存储器存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时执行如权利要求1-7任意一项所述的方法的步骤。
9.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时执行如权利要求1-7任意一项所述的方法的步骤。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010602573.7A CN111858454B (zh) | 2020-06-29 | 2020-06-29 | 一种gpu通信方法、设备以及介质 |
PCT/CN2021/077646 WO2022001141A1 (zh) | 2020-06-29 | 2021-02-24 | 一种gpu通信方法、设备以及介质 |
US18/013,170 US20230244749A1 (en) | 2020-06-29 | 2021-02-24 | Gpu communication method and device, and medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010602573.7A CN111858454B (zh) | 2020-06-29 | 2020-06-29 | 一种gpu通信方法、设备以及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111858454A CN111858454A (zh) | 2020-10-30 |
CN111858454B true CN111858454B (zh) | 2022-11-22 |
Family
ID=72988707
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010602573.7A Active CN111858454B (zh) | 2020-06-29 | 2020-06-29 | 一种gpu通信方法、设备以及介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230244749A1 (zh) |
CN (1) | CN111858454B (zh) |
WO (1) | WO2022001141A1 (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111858454B (zh) * | 2020-06-29 | 2022-11-22 | 苏州浪潮智能科技有限公司 | 一种gpu通信方法、设备以及介质 |
CN112765089A (zh) * | 2020-12-25 | 2021-05-07 | 苏州浪潮智能科技有限公司 | 一种gpu通信方法、设备以及介质 |
CN112732810A (zh) * | 2020-12-31 | 2021-04-30 | 青岛海尔科技有限公司 | 数据发送***及方法、装置、存储介质、电子装置 |
CN115221091A (zh) * | 2021-04-21 | 2022-10-21 | 华为技术有限公司 | 一种聚合通信的方法、***和计算机设备 |
CN113535630A (zh) * | 2021-09-14 | 2021-10-22 | 苏州浪潮智能科技有限公司 | 一种跨节点通信方法、装置、设备及可读存储介质 |
CN115129651B (zh) * | 2022-06-29 | 2024-06-07 | 苏州浪潮智能科技有限公司 | 一种多gpu数据传输方法、装置、设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110365754A (zh) * | 2019-06-28 | 2019-10-22 | 苏州浪潮智能科技有限公司 | 一种分布式文件传输存储方法、设备以及存储介质 |
CN110535869A (zh) * | 2019-09-05 | 2019-12-03 | 厦门市美亚柏科信息股份有限公司 | 一种基于压缩算法的数据传输方法、终端设备及存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190029124A (ko) * | 2017-09-12 | 2019-03-20 | 주식회사 코코링크 | 최적 gpu 코딩 방법 |
CN107832837B (zh) * | 2017-11-28 | 2021-09-28 | 南京大学 | 一种基于压缩感知原理的卷积神经网络压缩方法及解压缩方法 |
US10719323B2 (en) * | 2018-09-27 | 2020-07-21 | Intel Corporation | Systems and methods for performing matrix compress and decompress instructions |
CN111858454B (zh) * | 2020-06-29 | 2022-11-22 | 苏州浪潮智能科技有限公司 | 一种gpu通信方法、设备以及介质 |
-
2020
- 2020-06-29 CN CN202010602573.7A patent/CN111858454B/zh active Active
-
2021
- 2021-02-24 US US18/013,170 patent/US20230244749A1/en active Pending
- 2021-02-24 WO PCT/CN2021/077646 patent/WO2022001141A1/zh active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110365754A (zh) * | 2019-06-28 | 2019-10-22 | 苏州浪潮智能科技有限公司 | 一种分布式文件传输存储方法、设备以及存储介质 |
CN110535869A (zh) * | 2019-09-05 | 2019-12-03 | 厦门市美亚柏科信息股份有限公司 | 一种基于压缩算法的数据传输方法、终端设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111858454A (zh) | 2020-10-30 |
US20230244749A1 (en) | 2023-08-03 |
WO2022001141A1 (zh) | 2022-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111858454B (zh) | 一种gpu通信方法、设备以及介质 | |
KR102663557B1 (ko) | 메모리 대역폭 활용을 감소시키기 위해 활성화 데이터의 압축 및 압축 해제를 사용하는 신경망 프로세서 | |
US11551068B2 (en) | Processing system and method for binary weight convolutional neural network | |
US10884744B2 (en) | System and method of loop vectorization by compressing indices and data elements from iterations based on a control mask | |
US9361228B2 (en) | Cache line compaction of compressed data segments | |
CN109219805B (zh) | 一种多核***内存访问方法、相关装置、***及存储介质 | |
US10224957B1 (en) | Hash-based data matching enhanced with backward matching for data compression | |
WO2023116314A1 (zh) | 一种神经网络加速装置、方法、设备和计算机存储介质 | |
CN111338640B (zh) | 一种可动态调整的非对称指令重链接方法和装置 | |
CN111597139B (zh) | 一种gpu的通信方法、***、设备以及介质 | |
US11907680B2 (en) | Multiplication and accumulation (MAC) operator | |
US20180315437A1 (en) | Progressive Streaming of Spatial Audio | |
EP4295276A1 (en) | Accelerated execution of convolution operation by convolutional neural network | |
CN114841325A (zh) | 神经网络模型的数据处理方法、介质及电子设备 | |
CN111177066A (zh) | 一种提高访问片外存储器的效率的方法、设备及介质 | |
US7467240B2 (en) | Serial host interface generates index word that indicates whether operation is read or write operation | |
JP2023503034A (ja) | パターンベースのキャッシュブロック圧縮 | |
US20180103334A1 (en) | Shared three-dimensional audio bed | |
CN1447941A (zh) | 搜索不同尺寸的字 | |
CN106415484A (zh) | 专用算术编码指令 | |
CN114095036B (zh) | 一种动态哈夫曼编码的码长生成装置 | |
CN117114055B (zh) | 面向工业应用场景的fpga二值神经网络加速方法 | |
CN112765089A (zh) | 一种gpu通信方法、设备以及介质 | |
US9355133B2 (en) | Offline compression for limited sequence length radix tree | |
US20240004719A1 (en) | Just-In-Time Re-Partitioning of Feature Maps for Efficient Balancing of Compute Core Workloads |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |