CN115934323B - 云端计算资源的调用方法、装置、电子设备及存储介质 - Google Patents

云端计算资源的调用方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN115934323B
CN115934323B CN202211541332.1A CN202211541332A CN115934323B CN 115934323 B CN115934323 B CN 115934323B CN 202211541332 A CN202211541332 A CN 202211541332A CN 115934323 B CN115934323 B CN 115934323B
Authority
CN
China
Prior art keywords
network card
computing device
driving module
data
cloud computing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211541332.1A
Other languages
English (en)
Other versions
CN115934323A (zh
Inventor
赵二城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Capitalonline Data Service Co ltd
Original Assignee
Capitalonline Data Service Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Capitalonline Data Service Co ltd filed Critical Capitalonline Data Service Co ltd
Priority to CN202211541332.1A priority Critical patent/CN115934323B/zh
Publication of CN115934323A publication Critical patent/CN115934323A/zh
Application granted granted Critical
Publication of CN115934323B publication Critical patent/CN115934323B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Information Transfer Between Computers (AREA)

Abstract

本申请公开了一种云端计算资源的调用方法、装置、电子设备及存储介质,涉及计算机技术领域。依据本申请实施例,本地计算设备的第一CPU将待处理数据拷贝至第一网卡通信驱动模块,第一网卡通信驱动模块通过网卡将待处理数据传递至云端计算设备的第二网卡通信驱动模块。云端计算设备通过其第二网卡通信驱动模块将待处理数据拷贝至对应的处理单元,并获得处理结果后将其返回给第二网卡通信驱动模块,通过第二网卡通信驱动模块将处理结果发送给本地计算设备。本地计算设备再通过第一网卡通信驱动模块获取上述处理结果,并返回给第一CPU。由此可以实现对不同计算资源的计算能力的动态调整、按需分配,进一步减少本地用户成本、提高数据处理效率。

Description

云端计算资源的调用方法、装置、电子设备及存储介质
技术领域
本申请涉及计算机技术领域,尤其涉及一种云端计算资源的调用方法、装置、电子设备及存储介质。
背景技术
传统计算资源的使用中,比如图形处理器GPU,需在本地计算设备上通过硬件与CPU进行数据传输。这样的使用方式无法对不同计算资源的计算能力进行动态调整、按需分配,进而可能导致本地计算设备由于计算资源的不匹配而造成程序卡顿、资源浪费等。我们的社会目前正处于大数据时代,数据总量呈***性的增长,尤其是人工智能等领域,更需要依托足够大的计算资源。现有计算资源的调用方式,是调用本地计算设备的外部设备的计算资源,存在的问题是,对于外部设备的存放场地、维护费用、管理费用等,均具有较高的要求;且由于外部设备本身受到场地、硬件等多方面的限制,在数据处理时无法对计算资源的算力进行动态调整,面对复杂情况时可能造成算力不足或算力闲置的局面;另外,现在市场上的芯片较为紧缺,购买具有较大算力的外部设备所需的到货周期一般较长,在急需扩充算力时可能造成短时算力的不足进而带来较大的损失。
发明内容
本申请实施例提供一种云端计算资源的调用方法、装置、电子设备及存储介质,以实现CPU与云端计算资源动态调整、按需分配的目的。
第一方面,本申请实施例提供了一种云端计算资源的调用方法,应用于本地计算设备,所述本地计算设备上配置有用于与云端通信的第一网卡,所述方法包括:
将所述本地计算设备的第一CPU的待处理数据拷贝至第一网卡通信驱动模块,以通过所述第一网卡通信驱动模块将所述待处理数据发送给云端计算设备;
通过所述第一网卡通信驱动模块,获取所述云端计算设备调用与所述待处理数据对应的处理单元进行数据处理后获得的处理结果,并将所述处理结果返回给所述第一CPU,所述处理单元包括图形处理器、人工智能处理器、深度学习处理器、通用图形处理器、AI加速器、现场可编程逻辑门阵列中的至少一种。
第二方面,本申请实施例提供了一种云端计算资源的调用方法,应用于云端计算设备,所述云端计算设备上配置有用于与本地计算设备通信的第二网卡,所述方法包括:
通过第二网卡通信驱动模块将所述待处理数据拷贝至对应的处理单元,所述处理单元包括图形处理器GPU、人工智能处理器NPU、深度学习处理器DPU、通用图形处理器GPGPU、AI加速器、现场可编程逻辑门阵列FPGA中的至少一种;
获取调用所述处理单元对所述待处理数据进行数据处理后获得的处理结果,并将所述处理结果返回给所述第二网卡通信驱动模块,以通过所述第二网卡通信驱动模块将所述处理结果发送给所述本地计算设备。
第三方面,本申请实施例提供了一种云端计算资源的调用装置,部署于本地计算设备,其特征在于,所述本地计算设备上配置有用于与云端通信的第一网卡,包括:
数据拷贝模块,用于将所述本地计算设备的中央处理器第一CPU的待处理数据拷贝至第一网卡通信驱动模块,以通过所述第一网卡通信驱动模块将所述待处理数据发送给云端计算设备;
结果获取模块,用于通过所述第一网卡通信驱动模块,获取所述云端计算设备调用与所述待处理数据对应的处理单元进行数据处理后获得的处理结果,所述处理单元包括图形处理器、人工智能处理器、深度学习处理器、通用图形处理器、AI加速器、现场可编程逻辑门阵列中至少一种;
结果返回模块,用于将所述处理结果返回给所述本地计算设备的第一CPU。
第四方面,本申请实施例提供了一种云端计算资源的调用装置,部署于云端计算设备,其特征在于,所述云端计算设备上配置有用于与本地计算设备通信的第二网卡,所述装置包括:
数据拷贝模块,用于通过第二网卡通信驱动模块将所述待处理数据拷贝至对应的处理单元,所述处理单元包括图形处理器、人工智能处理器、深度学习处理器、通用图形处理器、AI加速器或现场可编程逻辑门阵列中至少一种;
结果获取模块,用于获取调用所述处理单元对所述待处理数据进行数据处理后获得的处理结果;
结果返回模块,用于将所述处理结果返回给所述第二网卡通信驱动模块,以通过所述第二网卡通信驱动模块将所述处理结果发送给所述本地计算设备。
第五方面,本申请实施例提供了一种本地计算设备,包括存储器、处理器及存储在存储器上的计算机程序,所述处理器在执行所述计算机程序时实现本申请任一实施例所述的方法。
第六方面,本申请实施例提供了一种云端计算设备,包括存储器、处理器及存储在存储器上的计算机程序,所述处理器在执行所述计算机程序时实现本申请任一实施例所述的方法。
第七方面,本申请实施例提供了一种计算设备可读存储介质,所述计算设备可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现本申请任一实施例所述的云端计算资源的调用方法。
本申请具有如下优点:
本申请通过驱动软件调用云端计算资源,由于在云端计算设备上增加了通信驱动模块,使得云端计算设备中的CPU可以不参与资源调用的过程;同时,由于在本地计算设备上增加了通信驱动模块,使得本地计算设备的CPU调用外部计算资源时,不再受到外部计算资源地理位置的限制,可以调用云端的计算资源,进而达到了对不同计算资源的计算能力进行动态调整、按需分配的目的,为用户节省成本、提高计算资源的利用率。
依据本申请实施例,本地计算设备的第一CPU将待处理数据拷贝至第一网卡通信驱动模块,第一网卡通信驱动模块通过网卡将待处理数据传递至云端计算设备的第二网卡通信驱动模块。云端计算设备通过其第二网卡通信驱动模块将待处理数据拷贝至对应的处理单元,等待处理单元对待处理数据进行数据处理后,获得该处理结果并将其返回给第二网卡通信驱动模块,通过第二网卡通信驱动模块将处理结果发送给本地计算设备。本地计算设备再通过第一网卡通信驱动模块获取上述处理结果,并将该处理结果返回给第一CPU,由此完成了调用云端计算资源的过程。上述方案中,云端计算设备中的第二CPU可以不参与资源调用的过程。
在上述计算资源的调用过程中,由于在云端计算设备上增加了内核通信驱动模块与网卡通信驱动模块,使得云端计算设备中的第二CPU可以不参与资源调用的过程,仅需借助两个驱动模块便可以完成与本地计算设备的数据交换;同时,由于在本地计算设备上增加了内核通信驱动模块与网卡通信驱动模块,使得本地计算设备的CPU调用外部计算资源时,不再受到外部计算资源地理位置的限制,可以调用云端的计算资源,相当于将原有的有限的计算资源转变为可以无限扩展的计算资源。因此上述计算资源可以克服本地计算设备本身的限制,节省计算资源调用的时间,从而达到动态调整不同计算资源算力、按需分配计算资源的目的,使得用户成本下降、计算资源的利用率提高、突发情况解决更具弹性。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,可依照说明书的内容予以实施,并且为了让本申请的上述和其他目的、特征和优点能够更明显易懂,以下特举本申请的具体实施方式。
附图说明
在附图中,除非另外规定,否则贯穿多个附图相同的附图标记表示相同或相似的部件或元素。这些附图不一定是按照比例绘制的。应该理解,这些附图仅描绘了根据本申请的一些实施方式,而不应将其视为是对本申请范围的限制。
图1为相关技术实现计算资源调用的一种方案的示意图;
图2为本申请提供的实现计算资源调用的一种方案的示意图;
图3为本申请一实施例应用于本地计算设备的云端计算资源的调用方法的流程图;
图4为本申请一实施例应用于云端计算设备的云端计算资源的调用方法的流程图;
图5是本申请一实施例部署于本地计算设备的云端计算资源调用装置的结构框图;
图6是本申请一实施例部署于云端计算设备的云端计算资源调用装置的结构框图;
图7是用来实现本申请实施例的本地计算设备电子设备的框图;
图8为用来实现本申请实施例的云端计算设备电子设备的框图。
具体实施方式
在下文中,仅简单地描述了某些示例性实施例。正如本领域技术人员可认识到的那样,在不脱离本申请的构思或范围的情况下,可通过各种不同方式修改所描述的实施例。因此,附图和描述被认为本质上是示例性的,而非限制性的。
为便于理解本申请实施例的技术方案,以下对本申请实施例的相关技术进行说明。以下相关技术作为可选方案与本申请实施例的技术方案可以进行任意结合,其均属于本申请实施例的保护范围。
在本申请之前的一种相关技术中,在实现计算资源的调用时,本地计算设备调用的是本地计算设备的外部设备的计算资源,如图1所示,为相关技术实现计算资源调用的一种方案的示意图。本地计算设备的CPU(Central Processing Unit,中央处理器)将待处理数据拷贝至***内存(System Memory),***内存通过PCI(Peripheral ComponentInterconnect,外设组件互连标准)总线通道将待处理数据发送至GPU内存(GPU Memory),GPU(Graphics Processing Unit,图形处理器)读取GPU内存中的数据进行数据处理后,将处理结果再次通过PCI总线通道反馈至***内存,完成数据交换,进而实现本地计算设备调用外部设备GPU计算资源的目的。但是,由于GPU与CPU通过PCI总线通道传输数据的方式会受到各种硬件设备的限制,例如,PCI并行总线无法连接太多设备,扩展性较差,在多台本地计算设备同时运行时可能会产生线间干扰导致***无法正常工作;再比如,使用外部设备GPU,首先需要用户购买GPU物理服务器,因此对于GPU的存放场地、维护费用、管理费用等,均具有较高的要求;其次由于GPU本身算力受到其内存大小的限制,在数据处理时无法对CPU和GPU的算力进行动态调整,面对需要大量算力的AI应用、或者是闲忙交替的昼夜复用等场景时,可能造成算力不足或算力闲置的局面;再次现在市场上的芯片较为紧缺,购买具有较大算力的GPU所需的到货周期一般较长,若用户急需采购GPU扩充算力时,可能造成短时算力的不足进而带来较大的损失。
有鉴于此,本申请实施例提供了一种新的计算资源的调用方案,以全部或部分解决上述技术问题。
本申请实施例涉及到云端计算资源的调用方法,应用于本地计算设备与云端计算设备之间计算资源调用的场景,云端计算资源部署在云端计算设备,方便按需扩充算力,在云端计算设备的用户侧部署与本地计算设备客户端通信的网卡,本地计算设备通过公网或专线连接云端,本地计算设备的客户端可以是胖客户端(Rich or Thick Client),也可以是瘦客户端(Thin Client)或智能客户端(Smart Client)的展现形式。用户在登录客户端的账户后,通过访问客户端提供的各个入口来调用云端计算设备的计算资源。
本申请实施的方案可以应用到各种需要进行计算资源调用的场景,包括但不限于AI应用、区块链、云计算,以达到对不同计算资源的动态调整、按需分配的目的,进而节约成本、提高效率。
为了更清楚地展示本申请实施例中提供的计算资源调用的方法,如下给出本申请实施例方案的具体应用实例,图2为本申请提供的实现计算资源调用的一种方案的示意图。图中涉及到GPU服务端服务器和客户端服务器,其中,客户端服务器可以是一个也可以是多个;GPU服务端服务器和客户端服务器使用的操作***均为Linux操作***。客户端服务器与GPU服务端服务器之间通过网卡通信,该网卡可以是RDMA(Remote Direct MemoryAccess远程直接数据存取)网卡。首先,客户端服务器的CPU将待处理数据拷贝至***内存(System Memory),***内存将待处理数据拷贝至内核通信驱动模块nv_peer_memory,而后内核通信驱动模块nv_peer_memory将待处理数据拷贝至网卡通信驱动模块ofa-kernel,客户端服务器的网卡通信驱动模块ofa-kernel再通过网卡将待处理数据传送至GPU服务端服务器的ofa-kernel,由此完成了待处理数据自客户端服务器向GPU服务端服务器传输的过程;其次,GPU服务端服务器的网卡通信驱动模块ofa-kernel再通过GPU服务端服务器的内核通信驱动模块nv_peer_memory将待处理数据拷贝至GPU内存中,GPU读取GPU内存中的数据进行数据处理后,将处理结果再次通过GPU服务端服务器的内核通信驱动模块nv_peer_memory、网卡通信驱动模块ofa-kernel,原路反馈至客户端服务器,完成数据交换。上述方案无需GPU服务端中CPU的参与,可以节省计算资源调用的时间,同时达到动态调整GPU与CPU的算力,按需分配GPU计算资源的目的,提高了GPU计算资源的利用率。
本申请实施例提供了一种云端计算资源的调用方法,应用于本地计算设备,该本地计算设备上配置有用于与云端通信的第一网卡,图3为本申请一实施例应用于本地计算设备的云端计算资源的调用方法的流程图。如图3所示,该方法包括步骤S301至步骤S302:
在步骤S301中,将本地计算设备的中央处理器第一CPU的待处理数据拷贝至第一网卡通信驱动模块,通过第一网卡通信驱动模块将待处理数据发送给云端计算设备。
本申请实施例涉及的网卡,可以连接不同计算设备在网络上进行通讯,可以是进行远程直接数据存取的网卡,例如RDMA(Remote Direct Memory Access)网卡。其中,应用于本地计算设备上的可以记为第一网卡,应用于云端计算设备上的可以记为第二网卡。本地计算设备上的第一网卡用于与云端计算设备上的第二网卡通信,第一网卡可以是RDMA(Remote Direct Memory Access)网卡,也可以是其他类型的网卡,只要能够与第二网卡通信即可,本申请对此并不做任何限制。
涉及的本地计算设备的类型可以包括物理机、虚拟机,也可以是在具有多个网络设备的局域网中彼此互连的多个服务器,客户端设备或其它适当类型的设备的计算机***。例如,本地计算设备可以放置在公司、政府机构、学校等环境下,本地计算设备的客户端可以是胖客户端(Rich or Thick Client),也可以是瘦客户端(Thin Client)或智能客户端(Smart Client)。本地计算设备客户端的操作***可以是Linux操作***、windows操作***等,本申请对此并不做任何限制。
涉及的待处理数据来自于上述本地计算设备,可以是本地计算设备接收到的用户输入数据、外部计算设备输入的数据;也可以是本地计算设备中生成的各种数据,比如金融交易应用产生的交易金额等。可以包括各种数据类型,例如图片、视频、文档等,也可以是多种类型的数据的混合,本申请对此并不做任何限制。
涉及的网卡通信驱动模块,是可以驱动网卡进行通信的模块。其中,应用于本地计算设备上的可以记为第一网卡通信驱动模块,是经过性能调优的网卡通信驱动模块,使得该第一网卡通信驱动模块能够驱动第一网卡进行通信,同时可以与本地计算设备中的其他驱动模块进行数据交换。
一种可能的实现方式中,将本地计算设备中第一CPU的待处理数据拷贝至第一网卡通信驱动模块时,可以先由本地计算设备的第一CPU将待处理数据拷贝至操作***内存中;再由操作***内存将待处理数据拷贝至操作***内核通信驱动模块;后再由操作***内核通信驱动模块将待处理数据拷贝至第一网卡通信驱动模块。这些待处理数据经云端计算设备的计算资源处理后的处理结果,返回时可以通过上述路径的相反方向执行上述过程。
本申请实施例中,由于第一CPU无法将待处理数据直接拷贝至第一网卡通信驱动模块,因此可以通过操作***内存先将待处理数据拷贝至可以与第一网卡通信驱动模块通信的本地计算设备的内核通信驱动模块中,再由内核通信驱动模块将待处理数据拷贝至第一网卡通信驱动模块,以通过第一网卡通信驱动模块驱动第一网卡与云端计算设备进行通信。
本申请实施例涉及的内核通信驱动模块位于本地计算设备***内部,用于与本地计算设备中的***内存交换数据或与其他驱动模块进行通信。该模块是经过性能调优的内核通信驱动模块,使得该内核通信驱动模块能够与网卡通信驱动模块进行数据交换,并且可以与本地计算设备中的***内存进行数据交换。
本申请实施例涉及到的云端计算设备配置有网卡,记为第二网卡,也设置有通信驱动模块,记为第二网卡通信驱动模块,上述本地计算设备第一网卡通信驱动模块将上述待处理数据发送给云端计算设备的第二网卡通信驱动模块;该第二网卡可以跳过上述云端计算设备的中央处理器第二CPU访问云端对应的处理单元。
其中涉及的第二网卡,是可以进行远程直接数据存取的网卡,配置在云端计算设备上,用于与本地计算设备上的第一网卡通信,可以是RDMA(Remote Direct MemoryAccess)网卡,也可以是其他类型的可以进行远程直接数据存取的网卡。涉及的第二网卡通信驱动模块是应用于云端计算设备上的、经过性能调优的网卡通信驱动模块,该第二网卡通信驱动模块能够驱动第二网卡进行通信,同时可以与云端计算设备中的其他驱动模块进行数据交换。
涉及的对应的处理单元,包括但不限于图形处理器GPU(Graphics ProcessingUnit)、人工智能处理器NPU(Neural network Processing Unit)、深度学习处理器DPU(Deep learning Processing Unit)、通用图形处理器GPGPU(General-purpose computingon graphics processing units)、AI加速器、现场可编程逻辑门阵列FPGA(FieldProgrammable Gate Array)中的一种或多种。这些处理单元可以一起处理一个本地计算设备发送的待处理数据的不同部分,也可以分别处理多个本地计算设备分别发送的待处理数据;可以处理单一类型的待处理数据,例如GPU只处理图形数据,也可以处理多种类型的待处理数据,例如NPU既处理图形数据、又处理文档数据,本申请对此并不做任何限制。
在步骤S302中,通过第一网卡通信驱动模块,获取云端计算设备调用与待处理数据对应的处理单元进行数据处理后获得的处理结果,并将处理结果返回给本地计算设备的第一CPU。对应的处理单元可以包括图形处理器、人工智能处理器、深度学习处理器、通用图形处理器、AI加速器、现场可编程逻辑门阵列中至少一种。
一种可能的实现方式中,将上述处理结果返回给本地计算设备的第一CPU时,可以先由前述第一网卡通信驱动模块将上述处理结果拷贝至本地计算设备的操作***内核通信驱动模块中;再由操作***内核通信驱动模块将处理结果拷贝至操作***内存中;最后由操作***内存将处理结果拷贝至本地计算设备的第一CPU。
本申请实施例中,由于第一CPU无法直接从第一网卡通信驱动模块处读取处理结果,故可以经由内核通信驱动模块与第一网卡通信驱动模块进行通信,将第一网卡通信驱动模块中的处理结果,先拷贝至内核通信驱动模块中,再由内核通信驱动模块拷贝至操作***内存中,由此,第一CPU可以读取操作***内存中的处理结果。此过程与第一CPU将待处理数据拷贝至第一网卡通信驱动模块的路径相反。
图4是本申请一实施例应用于云端计算设备的云端计算资源的调用方法的流程图,该云端计算设备上配置有用于与本地计算设备通信的第二网卡,该方法包括步骤S401至步骤S402:
在步骤S401中,通过第二网卡通信驱动模块将待处理数据拷贝至对应的处理单元,对应的处理单元包括图形处理器、人工智能处理器、深度学习处理器、通用图形处理器、AI加速器、现场可编程逻辑门阵列中至少一种。
本申请实施例涉及的本地计算设备的类型可以包括物理机、虚拟机,也可以是在具有多个网络设备的局域网中彼此互连的多个服务器,客户端设备或其它适当类型的设备的计算机***。例如,本地计算设备可以放置在公司、政府机构、学校等环境下,本地计算设备的客户端可以是胖客户端(Rich or Thick Client),也可以是瘦客户端(Thin Client)或智能客户端(Smart Client),本地计算设备客户端的操作***可以是Linux操作***、windows操作***等,本申请对此并不做任何限制。
涉及的云端计算设备客户端的操作***可以是Linux操作***、windows操作***等,可以与本地计算设备的操作***相同,也可以不同,本申请对此并不做任何限制。
其中,待处理数据来自于上述本地计算设备,可以是本地计算设备接收到的用户输入数据、外部计算设备输入的数据;也可以是本地计算设备中生成的各种数据,比如金融交易应用产生的交易金额等。可以包括各种数据类型,例如图片、视频、文档等,也可以是多种类型的数据的混合,本申请对此并不做任何限制。本申请实施例涉及的第二网卡,是可以进行远程直接数据存取的网卡,配置在云端计算设备上,用于与本地计算设备上的第一网卡通信,可以是RDMA(Remote Direct Memory Access)网卡,也可以是其他类型的可以进行远程直接数据存取的网卡。
涉及的网卡通信驱动模块,是可以驱动网卡进行通信的模块。其中,应用于云端计算设备上的可以记为第二网卡通信驱动模块,是经过性能调优的网卡通信驱动模块,使得该第二网卡通信驱动模块能够驱动第二网卡进行通信,同时可以与云端计算设备中的其他驱动模块进行数据交换。
一种可能的实现方式中,通过第二网卡通信驱动模块将待处理数据拷贝至对应的处理单元时,可以先由第二网卡通信驱动模块将上述待处理数据拷贝至云端计算设备内核通信驱动模块;再由云端计算设备内核通信驱动模块将待处理数据拷贝至对应的处理单元的内存;后再由对应的处理单元对其内存中的待处理数据进行数据处理。
由于第二网卡通信驱动模块不能直接将待处理数据传递给对应的处理单元,因此可以通过云端计算设备的内核通信驱动模块,将待处理数据由第二网卡通信驱动模块拷贝至内核通信驱动模块,再由内核通信驱动模块拷贝至对应的处理单元的内存中,由此调用对应的处理单元的计算资源,对其内存中的待处理数据进行处理。对应的处理单元对待处理数据处理后的处理结果,可以通过上述路径的相反方向返回给第二网卡通信驱动模块。
本申请实施例涉及的内核通信驱动模块位于云端计算设备***内部,用于调动云端计算设备***内部的计算资源或与其他驱动模块进行通信。该模块是经过性能调优的内核通信驱动模块,使得该内核通信驱动模块能够与网卡通信驱动模块进行数据交换,并且可以与云端计算设备中相应的处理单元的内存进行数据交换。
涉及的对应的处理单元,包括但不限于图形处理器GPU(Graphics ProcessingUnit)、人工智能处理器NPU(Neural network Processing Unit)、深度学习处理器DPU(Deep learning Processing Unit)、通用图形处理器GPGPU(General-purpose computingon graphics processing units)、AI加速器、现场可编程逻辑门阵列FPGA(FieldProgrammable Gate Array)中的一种或多种。这些处理单元可以一起处理一个本地计算设备发送的待处理数据的不同部分,也可以分别处理多个本地计算设备分别发送的待处理数据;可以处理单一类型的待处理数据,例如GPU只处理图形数据,也可以处理多种类型的待处理数据,例如NPU既处理图形数据、又处理文档数据,本申请对此并不做任何限制。
在步骤S402中,云端计算设备获取调用上述对应的处理单元对待处理数据进行数据处理后获得的处理结果,并将该处理结果返回给第二网卡通信驱动模块,以通过第二网卡通信驱动模块将该处理结果发送给本地计算设备。
一种可能的实现方式中,云端计算设备获取调用上述对应的处理单元对待处理数据进行数据处理后获得的处理结果时,可以先由对应的处理单元将上述处理结果拷贝至该处理单元的内存中;再由该处理单元的内存将上述处理结果拷贝至云端计算设备的内核通信驱动模块中;最后再通过云端计算设备的内核通信驱动模块将上述处理结果拷贝至第二网卡通信驱动模块。
由于上述对应的处理单元不能直接与第二网卡通信驱动模块通信,因此可以通过云端计算设备的内核通信驱动模块,将上述处理结果由上述对应的处理单元的内存拷贝至内核通信驱动模块,再由内核通信驱动模块拷贝至第二网卡通信驱动模块。上述路径与第二网卡通信驱动模块将待处理数据拷贝至对应的处理单元的内存的过程相反。
本申请实施例涉及到的本地计算设备配置有第一网卡,上述云端计算设备的第二网卡通信驱动模块将上述处理结果发送给本地计算设备的第一网卡通信驱动模块。
其中,第一网卡用于与云端计算设备上的网卡(第二网卡)通信,第一网卡可以是RDMA(Remote Direct Memory Access)网卡,也可以是其他类型的网卡,只要能够与第二网卡通信即可,本申请对此并不做任何限制。涉及的第二网卡,是可以进行远程直接数据存取的网卡,配置在云端计算设备上,用于与本地计算设备上的第一网卡通信,可以是RDMA(Remote Direct Memory Access)网卡,也可以是其他类型的可以进行远程直接数据存取的网卡。
涉及的第二网卡通信驱动模块是应用于云端计算设备上的、经过性能调优的网卡通信驱动模块,该第二网卡通信驱动模块能够驱动第二网卡进行通信,同时可以与云端计算设备中的其他驱动模块进行数据交换。
与本申请实施例提供的方法的应用场景以及方法相对应地,本申请实施例还提供一种云端计算资源的调用装置。如图5所示为本申请一实施例部署于本地计算设备的云端计算资源调用装置的结构框图,该数据分享装置可以包括:
数据拷贝模块501,用于将本地计算设备的中央处理器第一CPU的待处理数据拷贝至第一网卡通信驱动模块,以通过该第一网卡通信驱动模块将待处理数据发送给云端计算设备;
结果获取模块502,用于通过第一网卡通信驱动模块,获取云端计算设备调用与上述待处理数据对应的处理单元进行数据处理后获得的处理结果,对应的处理单元包括图形处理器、人工智能处理器、专用数据处理器、通用图形处理器、AI加速器、现场可编程逻辑门阵列中至少一种;
结果返回模块503,用于将上述处理结果返回给本地计算设备的第一CPU。
一种可能的实现方式中,上述数据拷贝模块501可以包括:
***内存拷贝子模块,用于通过上述本地计算设备的第一CPU将上述待处理数据拷贝至本地计算设备操作***内存中;
第一内核驱动拷贝子模块,用于通过上述操作***内存将上述待处理数据拷贝至本地计算设备操作***内核通信驱动模块;
第一通信驱动拷贝子模块,用于通过上述操作***内核通信驱动模块将上述待处理数据拷贝至第一网卡通信驱动模块。
一种可能的实现方式中,上述云端计算设备配置有第二网卡,第一网卡通信驱动模块将待处理数据发送给云端计算设备的第二网卡通信驱动模块;第二网卡可以跳过云端计算设备的第二CPU访问云端的处理单元。
一种可能的实现方式中,上述结果返回模块503可以包括:
第一通信驱动结果返回子模块,用于通过第一网卡通信驱动模块将处理结果拷贝至上述操作***内核通信驱动模块;
第一内核驱动结果返回子模块,用于通过操作***内核通信驱动模块将处理结果拷贝至操作***内存;
***内存结果返回子模块,用于通过操作***内存将处理结果拷贝至本地计算设备的第一CPU。
其中,涉及的处理结果是云端计算设备对应的处理单元对上述待处理数据进行处理后的处理结果,云端计算设备对应的处理单元包括但不限于图形处理器GPU(GraphicsProcessing Unit)、人工智能处理器NPU(Neural network Processing Unit)、深度学习处理器DPU(Deep learning Processing Unit)、通用图形处理器GPGPU(General-purposecomputing on graphics processing units)、AI加速器、现场可编程逻辑门阵列FPGA(Field Programmable Gate Array)中的一种或多种。
与本申请实施例提供的方法的应用场景以及方法相对应地,本申请实施例还提供一种云端计算资源的调用装置。如图6所示为本申请一实施例部署于云端计算设备的云端计算资源调用装置的结构框图,该数据分享装置可以包括:
数据拷贝模块601,用于通过第二网卡通信驱动模块将本地计算设备发送的待处理数据拷贝至对应的处理单元,对应的处理单元包括图形处理器、人工智能处理器、深度学习处理器、通用图形处理器、AI加速器、现场可编程逻辑门阵列中至少一种;
结果获取模块602,用于获取调用对应的处理单元对上述待处理数据进行数据处理后获得的处理结果;
结果返回模块603,用于将上述处理结果返回给第二网卡通信驱动模块,以通过第二网卡通信驱动模块将上述处理结果发送给本地计算设备。
一种可能的实现方式中,上述数据拷贝模块601可以包括:
第二通信驱动拷贝子模块,用于通过上述第二网卡通信驱动模块将上述待处理数据拷贝至云端计算设备内核通信驱动模块中;
第二内核驱动拷贝子模块,用于通过云端计算设备内核通信驱动模块将上述待处理数据拷贝至对应的处理单元的内存中;
处理单元内存拷贝子模块,用于对应的处理单元对其内存中的上述待处理数据进行数据处理。
一种可能的实现方式中,上述结果获取模块602可以包括:
处理单元内存结果返回子模块,用于通过对应的处理单元将上述处理结果拷贝至上述处理单元的内存中;
第二内核驱动结果返回子模块,用于通过上述处理单元的内存将上述处理结果拷贝至云端计算设备的内核通信驱动模块;
第二通信驱动结果返回子模块,用于通过上述云端计算设备的内核通信驱动模块将上述处理结果拷贝至上述第二网卡通信驱动模块。
一种可能的实现方式中,上述本地计算设备配置有第一网卡,第二网卡通信驱动模块将处理结果发送给本地计算设备的第一网卡通信驱动模块。
本申请实施例各装置中的各模块的功能可以参见上述方法中的对应描述,并具备相应的有益效果,在此不再赘述。
与本申请实施例提供的方法的应用场景以及方法相对应地,本申请实施例还提供一种本地计算设备,图7是用来实现本申请实施例的本地计算设备电子设备的框图。如图7所示,该本地计算电子设备包括:
存储器701和处理器702,存储器701内存储有可在处理器702上运行的计算机程序。处理器702执行该计算机程序时实现上述实施例中的方法。存储器701和处理器702的数量可以为一个或多个。
该电子设备还包括:
通信接口703,用于与外界设备进行通信,进行数据交互传输。
如果存储器701、处理器702和通信接口703独立实现,则存储器701、处理器702和通信接口703可以通过总线相互连接并完成相互间的通信。该总线可以是工业标准体系结构(Industry Standard Architecture,ISA)总线、外部设备互连(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准体系结构(Extended Industry StandardArchitecture,EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。为便于表示,图7中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
可选的,在具体实现上,如果存储器701、处理器702及通信接口703集成在一块芯片上,则存储器701、处理器702及通信接口703可以通过内部接口完成相互间的通信。
与本申请实施例提供的方法的应用场景以及方法相对应地,本申请实施例还提供一种云端计算设备,图8是用来实现本申请实施例的云端计算设备电子设备的框图。如图8所示,该云端计算电子设备包括:
存储器801和处理器802,存储器801内存储有可在处理器802上运行的计算机程序。处理器802执行该计算机程序时实现上述实施例中的方法。存储器801和处理器802的数量可以为一个或多个。
该电子设备还包括:
通信接口803,用于与外界设备进行通信,进行数据交互传输。
如果存储器801、处理器802和通信接口803独立实现,则存储器801、处理器802和通信接口803可以通过总线相互连接并完成相互间的通信。该总线可以是工业标准体系结构(Industry Standard Architecture,ISA)总线、外部设备互连(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准体系结构(Extended Industry StandardArchitecture,EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。为便于表示,图8中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
可选的,在具体实现上,如果存储器801、处理器802及通信接口803集成在一块芯片上,则存储器801、处理器802及通信接口803可以通过内部接口完成相互间的通信。
本申请实施例提供了一种计算机设备可读存储介质,其存储有计算机程序,该计算机程序被处理器执行时实现本申请实施例中提供的云端计算资源的调用方法。
应理解的是,上述处理器可以是中央处理器(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Srocessing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(FieldProgrammable gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者是任何常规的处理器等。值得说明的是,处理器可以是支持进阶精简指令集机器(Advanced RISC Machines,ARM)架构的处理器。
进一步地,可选的,上述存储器可以包括只读存储器和随机存取存储器,还可以包括非易失性随机存取存储器。该存储器可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以包括只读存储器(Read-OnlyMemory,ROM)、可编程只读存储器(Programmable ROM,PROM)、可擦除可编程只读存储器(Erasable PROM,EPROM)、电可擦除可编程只读存储器(Electrically EPROM,EEPROM)或闪存。易失性存储器可以包括随机存取存储器(Random Access Memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用。例如,静态随机存取存储器(Static RAM,SRAM)、动态随机存取存储器(Dynamic Random Access Memory,DRAM)、同步动态随机存取存储器(Synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(Double Data Rate SDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(EnhancedSDRAM,ESDRAM)、同步连接动态随机存取存储器(Synchlink DRAM,SLDRAM)和直接内存总线随机存取存储器(Direct Rambus RAM,DR RAM)。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行计算机程序指令时,全部或部分地产生按照本申请的流程或功能。计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包括于本申请的至少一个实施例或示例中。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分。并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行***、装置或设备(如基于计算机的***、包括处理器的***或其他可以从指令执行***、装置或设备取指令并执行指令的***)使用,或结合这些指令执行***、装置或设备而使用。
应理解的是,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行***执行的软件或固件来实现。上述实施例方法的全部或部分步骤是可以通过程序来指令相关的硬件完成,该程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。上述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读存储介质中。该存储介质可以是只读存储器,磁盘或光盘等。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到其各种变化或替换,这些都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种云端计算资源的调用方法,其特征在于,应用于本地计算设备,所述本地计算设备上配置有用于与云端通信的第一网卡,所述方法包括:
将所述本地计算设备的第一CPU的待处理数据从操作***内核通信驱动模块拷贝至第一网卡通信驱动模块,以通过所述第一网卡通信驱动模块将所述待处理数据发送给云端计算设备;
通过所述第一网卡通信驱动模块,获取所述云端计算设备调用与所述待处理数据对应的处理单元进行数据处理后获得的处理结果,并将所述处理结果返回给所述第一CPU,所述处理单元包括图形处理器、人工智能处理器、深度学习处理器、通用图形处理器、AI加速器、现场可编程逻辑门阵列中至少一种;
其中,所述云端计算设备配置有第二网卡,所述第一网卡通信驱动模块将所述待处理数据发送给云端计算设备的第二网卡通信驱动模块,所述第二网卡可以跳过所述云端计算设备的第二CPU访问云端的所述处理单元。
2.根据权利要求1所述的方法,其特征在于,所述将所述本地计算设备的第一CPU的待处理数据从操作***内核通信驱动模块拷贝至第一网卡通信驱动模块包括:
所述本地计算设备的第一CPU将所述待处理数据拷贝至操作***内存中;
所述操作***内存将所述待处理数据拷贝至所述操作***内核通信驱动模块;
所述操作***内核通信驱动模块将所述待处理数据拷贝至所述第一网卡通信驱动模块。
3.根据权利要求1所述的方法,其特征在于,所述将所述处理结果返回给所述第一CPU包括:
所述第一网卡通信驱动模块将所述处理结果拷贝至所述操作***内核通信驱动模块;
所述操作***内核通信驱动模块将所述处理结果拷贝至操作***内存;
所述操作***内存将所述处理结果拷贝至所述本地计算设备的第一CPU。
4.一种云端计算资源的调用方法,其特征在于,应用于云端计算设备,所述云端计算设备上配置有用于与本地计算设备通信的第二网卡,所述方法包括:
通过第二网卡通信驱动模块将待处理数据拷贝至云端计算设备内核通信驱动模块,通过所述云端计算设备内核通信驱动模块将所述待处理数据拷贝至对应的处理单元的内存,通过所述处理单元对所述处理单元的内存中的所述待处理数据进行数据处理,所述处理单元包括图形处理器、人工智能处理器、深度学习处理器深度学习处理器、通用图形处理器、AI加速器、现场可编程逻辑门阵列中至少一种;
通过所述处理单元将处理结果拷贝至所述处理单元的内存中,通过所述处理单元的内存将所述处理结果拷贝至所述云端计算设备的内核通信驱动模块,通过所述云端计算设备的内核通信驱动模块将所述处理结果拷贝至所述第二网卡通信驱动模块,并将所述处理结果返回给所述第二网卡,以通过所述第二网卡将所述处理结果发送给所述本地计算设备。
5.根据权利要求4所述的方法,其特征在于,所述本地计算设备配置有第一网卡,所述第二网卡通信驱动模块将所述处理结果发送给本地计算设备的第一网卡通信驱动模块。
6.一种云端计算资源的调用装置,部署于本地计算设备,其特征在于,所述本地计算设备上配置有用于与云端通信的第一网卡,包括:
数据拷贝模块,用于将所述本地计算设备的第一CPU的待处理数据从操作***内核通信驱动模块拷贝至第一网卡通信驱动模块,以通过所述第一网卡通信驱动模块将所述待处理数据发送给云端计算设备;
结果获取模块,用于通过所述第一网卡通信驱动模块,获取所述云端计算设备调用与所述待处理数据对应的处理单元进行数据处理后获得的处理结果,所述处理单元包括图形处理器、人工智能处理器、深度学习处理器、通用图形处理器、AI加速器、现场可编程逻辑门阵列中至少一种;
结果返回模块,用于将所述处理结果返回给所述本地计算设备的第一CPU;
其中,所述云端计算设备配置有第二网卡,所述第一网卡通信驱动模块将所述待处理数据发送给云端计算设备的第二网卡通信驱动模块,所述第二网卡可以跳过所述云端计算设备的第二CPU访问云端的所述处理单元。
7.一种云端计算资源的调用装置,部署于云端计算设备,其特征在于,所述云端计算设备上配置有用于与本地计算设备通信的第二网卡,所述装置包括:
数据拷贝模块,用于通过第二网卡通信驱动模块将待处理数据拷贝至云端计算设备内核通信驱动模块,通过所述云端计算设备内核通信驱动模块将所述待处理数据拷贝至对应的处理单元的内存,通过所述处理单元对所述处理单元的内存中的所述待处理数据进行数据处理,所述处理单元包括图形处理器、人工智能处理器、深度学习处理器、通用图形处理器、AI加速器、现场可编程逻辑门阵列中至少一种;
结果获取模块,用于通过所述处理单元将处理结果拷贝至所述处理单元的内存中,通过所述处理单元的内存将所述处理结果拷贝至所述云端计算设备的内核通信驱动模块,通过所述云端计算设备的内核通信驱动模块将所述处理结果拷贝至所述第二网卡通信驱动模块;
结果返回模块,用于将所述处理结果返回给所述第二网卡,以通过所述第二网卡将所述处理结果发送给所述本地计算设备。
8.一种本地计算设备,包括存储器、处理器及存储在存储器上的计算机程序,所述处理器在执行所述计算机程序时实现权利要求1-3中任意一项所述的方法。
9.一种云端计算设备,包括存储器、处理器及存储在存储器上的计算机程序,所述处理器在执行所述计算机程序时实现权利要求4-5中任意一项所述的方法。
10.一种计算设备可读存储介质,所述计算设备可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-3任意一项或权利要求4-5任意一项所述的云端计算资源的调用方法。
CN202211541332.1A 2022-12-02 2022-12-02 云端计算资源的调用方法、装置、电子设备及存储介质 Active CN115934323B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211541332.1A CN115934323B (zh) 2022-12-02 2022-12-02 云端计算资源的调用方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211541332.1A CN115934323B (zh) 2022-12-02 2022-12-02 云端计算资源的调用方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN115934323A CN115934323A (zh) 2023-04-07
CN115934323B true CN115934323B (zh) 2024-01-19

Family

ID=86650181

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211541332.1A Active CN115934323B (zh) 2022-12-02 2022-12-02 云端计算资源的调用方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN115934323B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101063963A (zh) * 2006-04-26 2007-10-31 韩国电子通信研究院 数据零拷贝文件的移动方法
CN107102957A (zh) * 2016-02-22 2017-08-29 深圳市知穹科技有限公司 一种基于gpu与nic之间的内存高速直接交换的方法及***
CN113326228A (zh) * 2021-07-30 2021-08-31 阿里云计算有限公司 基于远程直接数据存储的报文转发方法、装置及设备
CN113472830A (zh) * 2020-03-31 2021-10-01 华为技术有限公司 一种通信方法及装置
CN113595807A (zh) * 2021-09-28 2021-11-02 阿里云计算有限公司 计算机***、rdma网卡及数据通信方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9311230B2 (en) * 2013-04-23 2016-04-12 Globalfoundries Inc. Local direct storage class memory access

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101063963A (zh) * 2006-04-26 2007-10-31 韩国电子通信研究院 数据零拷贝文件的移动方法
CN107102957A (zh) * 2016-02-22 2017-08-29 深圳市知穹科技有限公司 一种基于gpu与nic之间的内存高速直接交换的方法及***
CN113472830A (zh) * 2020-03-31 2021-10-01 华为技术有限公司 一种通信方法及装置
CN113326228A (zh) * 2021-07-30 2021-08-31 阿里云计算有限公司 基于远程直接数据存储的报文转发方法、装置及设备
CN113595807A (zh) * 2021-09-28 2021-11-02 阿里云计算有限公司 计算机***、rdma网卡及数据通信方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
GPUrdma: GPU-side library for high performance networking from GPU kernels;Daoud, Feras .et;《PROCEEDINGS OF THE 6TH INTERNATIONAL WORKSHOP ON RUNTIME AND OPERATING SYSTEMS FOR SUPERCOMPUTERS, (ROSS 2016)》;全文 *
一种TCP/IP卸载的数据零拷贝传输方法;王小峰;时向泉;苏金树;;计算机工程与科学(02);全文 *
基于通用以太网卡的高性能通信库设计实现;胡长军等;《计算机工程与应用》;全文 *

Also Published As

Publication number Publication date
CN115934323A (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
CA2428481A1 (en) Identity-based distributed computing for device resources
CN111163130B (zh) 一种网络服务***及其数据传输方法
US9584628B2 (en) Zero-copy data transmission system
CN1530842A (zh) 用于多处理器***中的片上数据传输的方法和***
CN112906075A (zh) 一种内存共享的方法及装置
CN113918101A (zh) 一种写数据高速缓存的方法、***、设备和存储介质
CN111881104A (zh) 一种nfs服务器及其数据写入方法、装置和存储介质
CN103902472B (zh) 基于内存芯片互连的内存访问处理方法、内存芯片及***
WO2017166997A1 (zh) 智能网卡侧的异常处理方法和装置
CN105357271A (zh) 一种信息处理方法及对应装置
CN115934323B (zh) 云端计算资源的调用方法、装置、电子设备及存储介质
CN110659143B (zh) 一种容器间的通讯方法、装置及电子设备
CN117632843A (zh) 一种数据处理方法、装置、片上***和电子设备
CN108563492B (zh) 数据获取方法、虚拟机以及电子设备
CN115617537A (zh) 一种数据传输方法及装置、存储介质
CN114281516A (zh) 一种基于numa属性的资源分配方法及装置
CN108664323B (zh) 一种基于多处理器的数据传输方法和装置
CN112000462A (zh) 一种基于共享外设资源的数据处理方法及装置
CN104618121A (zh) 交换器及服务器***
CN115695454B (zh) 一种mec主机的数据存储方法、装置、设备及存储介质
CN115174484A (zh) 基于rdma的数据传输方法、装置、设备及存储介质
CN116151345B (zh) 数据传输方法、装置、电子设备及存储介质
CN115243394B (zh) 基于网络切片的通信方法、装置、设备及介质
WO2024060228A1 (zh) 获取数据的方法、装置、***及存储介质
CN108108243B (zh) 一种资源分享***和方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant