CN116974654B - 一种图像数据的处理方法、装置、电子设备及存储介质 - Google Patents
一种图像数据的处理方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN116974654B CN116974654B CN202311228987.8A CN202311228987A CN116974654B CN 116974654 B CN116974654 B CN 116974654B CN 202311228987 A CN202311228987 A CN 202311228987A CN 116974654 B CN116974654 B CN 116974654B
- Authority
- CN
- China
- Prior art keywords
- network layer
- computing
- data
- node
- nodes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003860 storage Methods 0.000 title claims abstract description 24
- 238000003672 processing method Methods 0.000 title abstract description 12
- 238000004364 calculation method Methods 0.000 claims abstract description 88
- 238000012545 processing Methods 0.000 claims abstract description 46
- 238000000034 method Methods 0.000 claims description 61
- 230000008569 process Effects 0.000 claims description 42
- 238000004590 computer program Methods 0.000 claims description 15
- 230000001360 synchronised effect Effects 0.000 claims description 6
- 238000004458 analytical method Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 7
- 238000012546 transfer Methods 0.000 description 7
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000009191 jumping Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000013523 data management Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/445—Program loading or initiating
- G06F9/44505—Configuring for program initiating, e.g. using registry, configuration files
- G06F9/4451—User profiles; Roaming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5072—Grid computing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Image Processing (AREA)
- Multi Processors (AREA)
Abstract
本申请公开一种图像数据的处理方法、装置、电子设备及存储介质,属于图像处理技术领域,该方法中,大模型的各网络层分布式部署在多个计算节点上,计算节点间的数据流转需求先写在配置文件中,后续,解析配置文件即可得到计算节点间的数据流转关系,基于数据流转关系生成连接网络层的多个策略节点,利用多个策略节点调度计算节点,对输入的图像数据进行推理计算,得到模型输出结果。这样,通过配置文件得到大模型分布式部署后多个计算节点间的数据流转关系,将这些数据流转关系封装成相对独立的策略节点,借助策略节点调度计算节点完成模型推理计算,不管大模型如何拆分,也不管大模型的图像处理任务是什么,都可使大模型在设备端快速部署应用。
Description
技术领域
本申请涉及图像处理技术领域,尤其涉及一种图像数据的处理方法、装置、电子设备及存储介质。
背景技术
图像处理技术领域经常会用到大模型,由于大模型所拥有的参数巨大,在推理计算时无法简单地部署在单卡上,所以通常采用分布式推理,分布式推理是指推理阶段采用多卡进行推理计算。
与单卡推理相比,分布式推理需将大模型拆分成更小单位的网络结构,并将拆分的每种网络结构部署在计算节点上,之后,由计算节点去承担相应网络结构的计算任务。为了使所有计算节点能够正确计算即实现大模型的图像处理任务,还需开发部署程序去指定计算节点间的数据流转关系,由于每种拆分方式下计算节点间的数据传递关系不同,所以每个大模型拆分后数据的管理和流转也不同,这决定了大模型的拆分方式变化或者大模型的图像处理任务变化,都需要重新部署并开发相应的部署程序。相关技术中,都是重复地部署大模型并开发相应的部署程序,模型部署和部署程序之间是强耦合的。这样,部署的时间成本高,无法快速灵活地支持不同大模型在设备端的快速部署应用。
发明内容
本申请实施例提供一种图像数据的处理方法、装置、电子设备及存储介质,用以解决相关技术中大模型无法快速灵活地在设备端快速部署应用的问题。
第一方面,本申请实施例提供一种图像数据的处理方法,大模型的各网络层分布式部署在多个计算节点上,所述方法应用于主控设备,包括:
获取所述大模型的配置文件,所述配置文件是根据计算节点间的数据流转需求预先配置的;
解析所述配置文件,得到计算节点间的数据流转关系,所述数据流转关系包括数据流转规则和数据流转时机;
基于所述数据流转关系,生成用于连接网络层的多个策略节点;
利用所述多个策略节点调度所述多个计算节点,对输入的图像数据进行推理计算,得到模型输出结果。
在一些实施例中,若任一数据流转规则是第一网络层对应的计算节点和第二网络层对应的计算节点并行处理不同批数据,则根据以下步骤调度对应计算节点:
指示所述第一网络层的前置策略节点将当前批数据分发给所述第一网络层对应的各计算节点进行计算处理;
在完成对所述当前批数据的计算后,指示所述第一网络层的前置策略节点向所述第一网络层对应的各计算节点分发下一批数据,并指示所述第二网络层的前置策略节点处理所述当前批数据的计算结果。
在一些实施例中,若任一数据流转规则是第一网络层对应的计算节点并行处理不同批数据,则根据以下步骤调度对应计算节点:
指示所述第一网络层的前置策略节点将当前批数据分发给所述第一网络层对应的各计算节点进行计算处理;
若所述第一网络层对应的任一计算节点完成计算,则指示所述第一网络层的前置策略节点继续向所述计算节点分发下一批数据,并指示第二网络层的前置策略节点处理所述计算节点的计算结果。
在一些实施例中,若所述第一网络层与所述第二网络层间的数据流转时机为同步流转,则缓存所述第一网络层对应的每个计算节点发送的计算结果,直至确定接收到所述第一网络层对应的所有计算节点的计算结果时,指示所述第二网络层的前置策略节点处理所述所有计算节点的计算结果。
在一些实施例中,若所述第一网络层与所述第二网络层间的数据流转时机为异步流转,则每当所述第一网络层对应的一个计算节点完成计算,则指示所述第二网络层的前置策略节点处理所述计算节点的计算结果。
第二方面,本申请实施例提供一种图像数据的处理装置,大模型的各网络层分布式部署在多个计算节点上,所述装置应用于主控设备,包括:
获取模块,用于获取所述大模型的配置文件,所述配置文件是根据计算节点间的数据流转需求预先配置的;
解析模块,用于解析所述配置文件,得到计算节点间的数据流转关系,所述数据流转关系包括数据流转规则和数据流转时机;
生成模块,用于基于所述数据流转关系,生成用于连接网络层的多个策略节点;
调度模块,用于利用所述多个策略节点调度所述多个计算节点,对输入的图像数据进行推理计算,得到模型输出结果。
在一些实施例中,若任一数据流转规则是第一网络层对应的计算节点和第二网络层对应的计算节点并行处理不同批数据,则所述调度模块具体用于根据以下步骤调度对应计算节:
指示所述第一网络层的前置策略节点将当前批数据分发给所述第一网络层对应的各计算节点进行计算处理;
在完成对所述当前批数据的计算后,指示所述第一网络层的前置策略节点向所述第一网络层对应的各计算节点分发下一批数据,并指示所述第二网络层的前置策略节点处理所述当前批数据的计算结果。
在一些实施例中,若任一数据流转规则是第一网络层对应的计算节点并行处理不同批数据,则所述调度模块具体用于根据以下步骤调度对应计算节点:
指示所述第一网络层的前置策略节点将当前批数据分发给所述第一网络层对应的各计算节点进行计算处理;
若所述第一网络层对应的任一计算节点完成计算,则指示所述第一网络层的前置策略节点继续向所述计算节点分发下一批数据,并指示第二网络层的前置策略节点处理所述计算节点的计算结果。
在一些实施例中,若所述第一网络层与所述第二网络层间的数据流转时机为同步流转,则缓存所述第一网络层对应的每个计算节点发送的计算结果,直至确定接收到所述第一网络层对应的所有计算节点的计算结果时,指示所述第二网络层的前置策略节点处理所述所有计算节点的计算结果。
在一些实施例中,若所述第一网络层与所述第二网络层间的数据流转时机为异步流转,则每当所述第一网络层对应的一个计算节点完成计算,则指示所述第二网络层的前置策略节点处理所述计算节点的计算结果。
第三方面,本申请实施例提供一种电子设备,包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中:
存储器存储有可被至少一个处理器执行的计算机程序,该计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述图像数据的处理方法。
第四方面,本申请实施例提供一种存储介质,当所述存储介质中的计算机程序由电子设备的处理器执行时,所述电子设备能够执行上述图像数据的处理方法。
本申请实施例中,大模型的各网络层分布式部署在多个计算节点上,预先根据计算节点间的数据流转需求配置配置文件,后续,解析配置文件即可得到计算节点间的数据流转关系,基于这些数据流转关系,生成用于连接网络层的多个策略节点,进而利用多个策略节点调度各计算节点,对输入的图像数据进行推理计算,得到模型输出结果,其中,数据流转关系包括数据流转规则和数据流转时机。这样,通过配置文件的方式来得到大模型分布式部署后多个计算节点间的数据流转关系,并将这些数据流转关系封装成相对独立的策略节点,借助各策略节点来调度计算节点完成模型推理计算,不管大模型如何拆分,也不管大模型的图像处理任务是什么,都可以快速灵活部署,使得大模型可在设备端快速部署应用。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本申请实施例提供的一种数据通路的示意图;
图2为本申请实施例提供的一种图像数据的处理架构图;
图3为本申请实施例提供的一种大模型的并行处理示意图;
图4为本申请实施例提供的又一种大模型的并行处理示意图;
图5为本申请实施例提供的一种两层网络间数据结果流转获取的示意图;
图6为本申请实施例提供的一种每个策略节点执行数据结果获取策略的流程示意图;
图7为本申请实施例提供的一种图像数据的处理方法的流程图;
图8为本申请实施例提供的一种图像数据的处理装置的结构示意图;
图9为本申请实施例提供的一种用于实现图像数据的处理方法的电子设备的硬件结构示意图。
具体实施方式
为了解决相关技术中不同大模型无法快速灵活地在设备端快速部署应用的问题,本申请实施例提供了一种图像数据的处理方法、装置、电子设备及存储介质。
以下结合说明书附图对本申请的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本申请,并不用于限定本申请,并且在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
为了便于理解本申请,本申请涉及的技术术语中:
卡,指有一定运算能力的芯片。
计算节点,大模型拆分后会形成多个小网络结构,承担每个小网络结构计算任务的即是计算节点,一个计算节点即是一个实例化后的计算对象。由于每个小网络结构的计算复杂度不同,所以一个小网络结构可以部署一个、两个或者更多个计算节点,并且,由于单卡的运算能力不同,一个小网络结构的计算节点可部署到一张、两张或者更多张卡上。
大模型,指各网络层分布式部署在多个计算节点上的图像网络模型,这多个计算节点共同完成大模型的计算任务,一个大模型的图像处理任务和拆分方式决定了计算节点间的数据流转关系(包括数据流转规则和数据流转时机),即,计算节点间的数据流转关系会随大模型的图像处理任务不同而不同,也会随大模型的结构拆分方式不同而不同。
策略节点,是根据大模型分布式部署后各计算节点间的数据流转关系,生成的策略对象。相邻网络层之间一般有一个策略节点,除了大模型的第一个网络层外,每个网络层都有一个前置策略节点和一个后置策略节点,并且,一个网络层的后置策略节点即是相邻的下一个网络层的前置策略节点。大模型的第一个网络层只有一个前置策略节点。
一般地,大模型的推理网络结构可以抽象理解为多个相互连接的计算节点,从最初的图像数据的输入端到最终的模型推理结果的输出端,连接各计算节点的一条线路可称作一条数据通路,图像数据以及大模型网络中各计算节点推理得到的计算结果均通过该数据通路进行流转。
图1为数据通路的示意图,从输入开始通过有向箭头最终连到输出形成的数据链路即为一条数据通路。一般地,不同网络层间插有策略节点,策略节点中可写入后置计算节点的输入需求,并可根据需要对前置计算节点的数据进行整合、流转、等待等策略操作后,通知并控制后置计算节点获取,后置计算节点的输出结果可给后置策略节点进行存储管理。另外,策略节点间可进行通信,如交互数据结果,即在一条数据通路上后置的计算节点可获取前置各计算节点的计算结果。
图2为本申请实施例提供的一种图像数据的处理架构图,包括主控设备和3张卡:卡1、卡2、卡3。大模型的各网络层分布式部署在多个计算节点上,这多个计算节点运行在卡1、卡2和卡3上。主控设备的主程序运行时解析大模型的配置文件(一般每个计算节点对输入数据都会有一些要求如格式要求、同步要求等,这些要求均可写在配置文件中,每个计算节点对前面不同节点的数据同步要求也可写在配置文件中)进行策略节点的初始化生成,然后,通过多个策略节点可调度各计算节点对输入大模型的图像数据进行推理计算,从而得到模型输出结果。
一般大模型的拆分方式或图像处理任务改变,大模型的数据管理需求和数据流转需求都会发生改变,本申请实施例中,大模型的数据管理需求和数据流转需求均可在配置文件中进行配置,当大模型有改变时,更改配置文件中的相关信息即可,不必因大模型的改动而不断调整大模型在多卡上的部署,提供的是一种对模型部署方式和模型结构不敏感的通用模型部署方案,所以利于大模型快速落地部署。
为了灵活适应不同场景业务、提升大模型的推理效率,本申请实施例还提供两种大模型分布式推理的并行策略,为了不同网络层间的数据能够比较灵活地进行同步,本申请实施例还提供两种数据结果的获取策略。
下面,先对两种大模型分布式推理的并行策略进行介绍。
1、流水线化并行
如图3所示,将整个大模型的网络层纵向地划分成A、B、C三个网络层,A网络层部署在计算节点1-计算节点3上,B网络层部署在计算节点4-计算节点6上,C网络层部署在计算节点7-计算节点9上,a、b、c、d为策略节点。A、B、C三个网络层可部署在不同的推理卡上,并且,A、B、C三个网络层分别有各自的输入数据要求和输出数据格式,这些要求都可在配置文件中进行配置,策略节点a、b、c、d即是根据配置文件中的配置信息生成的,通过策略节点a、b、c、d给相应网络层提供输入数据即可完成相应的推理工作。具体地,若从输入端给入两批数据,A网络层所在卡处理完第一批数据后即可开始处理第二批数据,而无需等到整个大模型完成对第一批数据的推理。此种并行策略实现了不同网络层对不同批数据的流水线化并行。
比如,图像数据从主控设备端输入,主控设备指示策略节点a将第一批图像数据分发给计算节点1-计算节点3(假设计算节点1-计算节点3均部署在卡1上)进行推理计算,卡1完成第一批数据的处理后发送信号给主控设备,主控设备指示策略节点b进行后续的处理。此时,第二批图像数据即可从主控设备通过策略节点a再次发送给计算节点1-计算节点3进行推理计算,不需要等第一批数据完成整个模型(即A、B、C三个网络层)的推理,以此达到不同网络层对不同批数据的流水线化并行。
另外,若不同大模型的网络结构在进行切分后存在相同的网络层(或者叫中间子图结构),则可以实现资源的共享使用,即一张推理卡中的网络层可支持两个不同的大模型进行推理工作。
2、计算节点并行
如图4所示,大模型包括A、B、C三个网络层,A网络层部署在计算节点1-计算节点3上,B网络层部署在计算节点4-计算节点6上,C网络层部署在计算节点7-计算节点9上,a、b、c、d为策略节点。可将整个大模型网络按计算节点维度进行划分,计算节点可部署至不同推理卡上,同一网络层对应的计算节点在经过各自的计算后,可通过策略节点的通信将各自计算结果进行整合得到该网络层的最终结果,或者,可将单个计算节点的计算结果直接往后流转。即同网络层对应的计算节点可对不同批数据进行并行处理。此种并行策略下,还可根据计算节点的计算复杂度,将一个计算节点部署实例化出多份,即将复杂度高的计算节点部署到多张推理卡上,然后将数据均分至多张推理卡进行并行处理,以此来解决单卡上推理资源不足导致的效率低下问题。
具体地,图像数据从主控设备端输入,主控设备指示策略节点a将数据分发给A网络层对应的计算节点1-计算节点3处理,假设此时A网络层对应的计算节点1-计算节点3部署在不同卡上(即计算节点1-计算节点3各自独立),每个计算节点完成第一批数据的处理后,可发送消息告知主控设备,之后,主控设备可指示策略节点b进行后续的数据流转和分发处理,此时第二批数据就可从策略节点a继续分发至处理完第一批数据的计算节点上进行推理计算,无需等待A网络层对应的其他计算节点完成对上一批数据的计算。即计算节点1处理完第一批数据后无需关心计算节点2和计算节点3的处理情况,可直接处理下一批数据。此为计算节点的并行。
接着,对两种数据结果的获取策略进行介绍。
图5为两层网络间数据结果流转获取的示意图,在此图基础上对两种数据结果获取策略进行说明,其中,A、B为大模型的两个网络层,A网络层部署在计算节点1-计算节点3上,B网络层部署在计算节点4-计算节点6上。
1、节点数据结果同步策略
B网络层对应的各计算节点的输入数据是A网络层完全推理完毕后的数据结果,即A网络层对应的计算节点1-计算节点3均需处理完同一批数据后,再将数据给到下游的策略节点,由下游的策略节点根据网络结构情况对三个计算节点的输出数据进行重新组合,得到最终的A层计算结果,然后,再通知B层对应的计算节点来进行数据结果的获取。
比如,若B网络层需要A网络层的完整结果作为输入,则策略节点b会等计算节点1-计算节点3都输出计算结果后进行合并处理,最终将合并后的结果数据发送给B网络层对应的计算节点4-计算节点6进行处理。
2、节点数据结果异步策略
B网络层对应的各计算节点的输入数据不需要A网络层完全推理完毕,部分计算节点推理完成后即可直接用于部分计算节点的数据输入。比如,B网络层对应的计算节点4只需A网络层对应的计算节点1的计算结果,此时策略节点b在接收到计算节点1推理得到的计算结果后,可直接通知B网络层对应的计算节点4来进行结果获取。至于计算节点5、6对计算节点1、2的结果获取需求,与计算节点4对计算节点1的结果获取各自独立,此为节点数据的异步策略。
比如,若B网络层对应的计算节点4只需要A网络层对应的计算节点1的计算结果,则策略节点b在接收到计算节点1的计算结果后,可直接传输给计算节点4进行处理,无需等待计算节点2和计算节点3的结果。
本申请实施例中,每个计算节点都可由前置策略节点通知后再进行数据结果的获取,然后,再执行各自的处理,策略节点会根据后置计算节点的配置信息来执行不同的数据结果获取策略。参见图6,图6为每个策略节点执行数据结果获取策略的流程示意图,具体步骤如下:
步骤601、接收前置层单个计算节点的计算结果;
步骤602、判断后置层对应的每个计算节点与这个计算节点间的数据结果获取策略,若为异步策略,直接跳至步骤607;若为同步策略,则跳至步骤603;
步骤603、判断后置层对应的该计算节点所需的前置层计算节点的计算结果是否全部到齐,若未全部到齐跳至步骤604;若全部到齐则跳至步骤605;
步骤604、等待所需的其余前置层计算节点的计算结果输入,返回至步骤601;
步骤605、对前置层各计算节点的计算结果进行整合重组,最终生成一份前置层整体的数据结果;
步骤606、将前置层整体的数据结果通知给后置层对应的相关计算节点;
步骤607、将这个计算节点的计算结果通知给后置层对应的相关计算节点。
本申请实施例提出一种适用于大模型分布式推理中数据管理和数据流转的数据通路,其中,数据管理包括对数据格式进行转换、对计算结果进行整合等,数据流转包括指示数据传递路径、数据传递时机等,还支持两种大模型分布式推理的并行策略以及两种数据结果的获取策略。这些能力均可通过大模型的配置文件进行自适应地调整与支持,不必因大模型的拆分结构等特性不同而不断调整大模型在多卡上的部署,可支持不同网络结构的大模型的快速高效部署,降低了不同结构大模型的应用落地成本,两种不同形式的并行策略还可提高大模型的分布式推理效率。
图7为本申请实施例提供的一种图像数据的处理方法的流程图,大模型的各网络层分布式部署在多个计算节点上,该方法应用于图1的主控设备中,且该方法包括以下步骤。
在步骤701中,获取大模型的配置文件,配置文件是根据计算节点间的数据流转需求预先配置的。
一般地,大模型的用途(如检测行人、检测行人和车辆、检测车辆等)不同,部署到多个计算节点上之后,计算节点间的数据流转需求就会不同,而同一用途的大模型,拆分方式不同时,计算节点间的数据流转需求也会不同。无论哪种需求均可预先在配置文件中进行配置。
在步骤702中,解析配置文件,得到计算节点间的数据流转关系,数据流转关系包括数据流转规则和数据流转时机。
其中,数据流转规则用于指明输入的图像数据或计算节点间的计算结果传递给谁、是否整合、是否进行格式转换、转换到哪种格式等,数据流转时机用于指明输入的图像数据或计算节点间的计算结果何时传递。
在步骤703中,基于数据流转关系,生成用于连接网络层的多个策略节点。
这里,对位于相邻网络层之间的策略节点,可根据相邻网络层对应的计算节点的数据流转关系生成;对首个网络层的前置策略节点,则可根据首个网络层对应的各计算节点的数据流转关系生成。
在步骤704中,利用多个策略节点调度多个计算节点,对输入的图像数据进行推理计算,得到模型输出结果。
在使用大模型时,图像数据从主控设备输入,对图像数据的推理计算过程在分布式部署的计算节点上完成,且该过程中的数据流转和管理工作由策略节点承担,最后仍由主控设备输出模型处理结果。
本申请实施例中,大模型的各网络层分布式部署在多个计算节点上,通过配置文件的方式来得到计算节点间的数据流转关系,并将这些数据流转规则封装成相对独立的策略节点,借助各策略节点来调度各计算节点完成模型推理计算,不管大模型如何拆分,也不管大模型的图像处理任务是什么,都可以快速灵活部署,使得大模型可在设备端快速应用。
在一些实施例中,若任一数据流转规则是第一网络层对应的计算节点和第二网络层对应的计算节点并行处理不同批数据,则可根据以下步骤调度对应计算节点:
指示第一网络层的前置策略节点将当前批数据分发给第一网络层对应的各计算节点进行计算处理;在完成对当前批数据的计算后,指示第一网络层的前置策略节点向第一网络层对应的各计算节点分发下一批数据,并指示第二网络层的前置策略节点处理当前批数据的计算结果。
其中,当第一网络层是首个网络层时,第一批数据是部分图像数据,当网络层不是首个网络层时,第一批数据是部分图像数据经至少一个网络层处理后的中间数据。一般地,第一网络层和第二网络层相邻,当然,第一网络层和第二网络层也可以不相邻。
也就是说,一个网络层处理完第一批数据后可开始处理第二批数据,而无需等到整个大模型的所有网络层均完成对第一批数据的推理。此种并行策略实现了不同网络层对不同批数据的流水线化并行,可提升大模型的推理效率。
在一些实施例中,若任一数据流转规则是第一网络层对应的计算节点并行处理不同批数据,则可根据以下步骤调度对应计算节点:
指示第一网络层的前置策略节点将当前批数据分发给第一网络层对应的各计算节点进行计算处理;若第一网络层对应的任一计算节点完成计算,则指示第一网络层的前置策略节点继续向计算节点分发下一批数据,并指示第二网络层的前置策略节点处理计算节点的计算结果。
类似地,当第一网络层是首个网络层时,第一批数据是部分图像数据,当网络层不是首个网络层时,第一批数据是部分图像数据经至少一个网络层处理后的中间数据。一般地,第一网络层和第二网络层相邻,当然,第一网络层和第二网络层也可以不相邻。
也就是说,同一网络层对应的计算节点可并行处理不同批数据,尽可能地将计算节点的运算能力发挥到最大,从而提升大模型的推理效率。
无论上述哪种数据流转规则,第一网络层与第二网络层间的数据流转时机可以是同步流转也可以是异步流转。而当第一网络层与第二网络层间的数据流转时机为同步流转时,可缓存第一网络层对应的每个计算节点发送的计算结果,直至确定接收到第一网络层对应的所有计算节点的计算结果时,再指示第二网络层的前置策略节点处理所有计算节点的计算结果。当第一网络层与第二网络层间的数据流转时机为异步流转时,则每当第一网络层对应的一个计算节点完成计算,就可指示第二层网络的前置策略节点处理计算节点的计算结果。这样,支持不同的数据流转时机,便于适用不同业务场景,在保证推理正确的前提下最大化地提升模型推理效率。
基于相同的技术构思,本申请实施例还提供一种图像数据的处理装置,图像数据的处理装置解决问题的原理与上述图像数据的处理方法相似,因此图像数据的处理装置的实施可参见图像数据的处理方法的实施,重复之处不再赘述。
图8为本申请实施例提供的一种图像数据的处理装置的结构示意图,包括获取模块801、解析模块802、生成模块803、调度模块804。
获取模块801,用于获取所述大模型的配置文件,所述配置文件是根据计算节点间的数据流转需求预先配置的;
解析模块802,用于解析所述配置文件,得到计算节点间的数据流转关系,所述数据流转关系包括数据流转规则和数据流转时机;
生成模块803,用于基于所述数据流转关系,生成用于连接网络层的多个策略节点;
调度模块804,用于利用所述多个策略节点调度所述多个计算节点,对输入的图像数据进行推理计算,得到模型输出结果。
在一些实施例中,若任一数据流转规则是第一网络层对应的计算节点和第二网络层对应的计算节点并行处理不同批数据,则所述调度模块804具体用于根据以下步骤调度对应计算节:
指示所述第一网络层的前置策略节点将当前批数据分发给所述第一网络层对应的各计算节点进行计算处理;
在完成对所述当前批数据的计算后,指示所述第一网络层的前置策略节点向所述第一网络层对应的各计算节点分发下一批数据,并指示所述第二网络层的前置策略节点处理所述当前批数据的计算结果。
在一些实施例中,若任一数据流转规则是第一网络层对应的计算节点并行处理不同批数据,则所述调度模块804具体用于根据以下步骤调度对应计算节点:
指示所述第一网络层的前置策略节点将当前批数据分发给所述第一网络层对应的各计算节点进行计算处理;
若所述第一网络层对应的任一计算节点完成计算,则指示所述第一网络层的前置策略节点继续向所述计算节点分发下一批数据,并指示第二网络层的前置策略节点处理所述计算节点的计算结果。
在一些实施例中,若所述第一网络层与所述第二网络层间的数据流转时机为同步流转,则缓存所述第一网络层对应的每个计算节点发送的计算结果,直至确定接收到所述第一网络层对应的所有计算节点的计算结果时,指示所述第二网络层的前置策略节点处理所述所有计算节点的计算结果。
在一些实施例中,若所述第一网络层与所述第二网络层间的数据流转时机为异步流转,则每当所述第一网络层对应的一个计算节点完成计算,则指示所述第二网络的层前置策略节点处理所述计算节点的计算结果。
本申请实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,另外,本申请各实施例中的各功能模块可以集成在一个处理器中,也可以是单独物理存在,也可以两个或两个以上模块集成在一个模块中。各个模块相互之间的耦合可以是通过一些接口实现,这些接口通常是电性通信接口,但是也不排除可能是机械接口或其它的形式接口。因此,作为分离部件说明的模块可以是或者也可以不是物理上分开的,既可以位于一个地方,也可以分布到同一个或不同设备的不同位置上。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
在介绍了本申请示例性实施方式的图像数据的处理方法和装置之后,接下来,介绍根据本申请的另一示例性实施方式的电子设备。
下面参照图9来描述根据本申请的这种实施方式实现的电子设备130。图9显示的电子设备130仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图9所示,电子设备130以通用电子设备的形式表现。电子设备130的组件可以包括但不限于:上述至少一个处理器131、上述至少一个存储器132、连接不同***组件(包括存储器132和处理器131)的总线133。
总线133表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器、***总线、处理器或者使用多种总线结构中的任意总线结构的局域总线。
存储器132可以包括易失性存储器形式的可读介质,例如随机存取存储器(RAM)1321和/或高速缓存存储器1322,还可以进一步包括只读存储器(ROM)1323。
存储器132还可以包括具有一组(至少一个)程序模块1324的程序/实用工具1325,这样的程序模块1324包括但不限于:操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
电子设备130也可以与一个或多个外部设备134(例如键盘、指向设备等)通信,还可与一个或者多个使得用户能与电子设备130交互的设备通信,和/或与使得该电子设备130能与一个或多个其它电子设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口135进行。并且,电子设备130还可以通过网络适配器136与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器136通过总线133与用于电子设备130的其它模块通信。应当理解,尽管图中未示出,可以结合电子设备130使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理器、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
在示例性实施例中,还提供了一种存储介质,当存储介质中的计算机程序由电子设备的处理器执行时,电子设备能够执行上述图像数据的处理方法。可选地,存储介质可以是非临时性计算机可读存储介质,例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在示例性实施例中,本申请的电子设备可以至少包括至少一个处理器,以及与这至少一个处理器通信连接的存储器,其中,存储器存储有可被这至少一个处理器执行的计算机程序,计算机程序被这至少一个处理器执行时可使这至少一个处理器执行本申请实施例提供的任一图像数据的处理方法的步骤。
在示例性实施例中,还提供一种计算机程序产品,当计算机程序产品被电子设备执行时,电子设备能够实现本申请提供的任一示例性方法。
并且,计算机程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以是但不限于电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、RAM、ROM、可擦式可编程只读存储器(Erasable Programmable Read-Only Memory,EPROM)、闪存、光纤、光盘只读存储器(Compact Disk Read Only Memory,CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
本申请实施例中用于图像数据的处理的程序产品可以采用CD-ROM并包括程序代码,并可以在计算设备上运行。然而,本申请的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、射频(Radio Frequency,RF)等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本申请操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络如局域网(Local AreaNetwork,LAN)或广域网(Wide Area Network,WAN)连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了装置的若干单元或子单元,但是这种划分仅仅是示例性的并非强制性的。实际上,根据本申请的实施方式,上文描述的两个或更多单元的特征和功能可以在一个单元中具体化。反之,上文描述的一个单元的特征和功能可以进一步划分为由多个单元来具体化。
此外,尽管在附图中以特定顺序描述了本申请方法的操作,但是,这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
本领域内的技术人员应明白,本申请的实施例可提供为方法、***、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、装置(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也包含这些改动和变型在内。
Claims (10)
1.一种图像数据的处理方法,其特征在于,大模型的各网络层分布式部署在多个计算节点上,所述方法应用于主控设备,包括:
获取所述大模型的配置文件,所述配置文件是根据计算节点间的数据流转需求预先配置的;
解析所述配置文件,得到计算节点间的数据流转关系,所述数据流转关系包括数据流转规则和数据流转时机;
基于所述数据流转关系,生成用于连接网络层的多个策略节点;
利用所述多个策略节点调度所述多个计算节点,对输入的图像数据进行推理计算,得到模型输出结果,其中,所述多个计算节点并行处理不同批数据,所述多个计算节点处于同一网络层或处于不同网络层。
2.如权利要求1所述的方法,其特征在于,若任一数据流转规则是第一网络层对应的计算节点和第二网络层对应的计算节点并行处理不同批数据,则根据以下步骤调度对应计算节点:
指示所述第一网络层的前置策略节点将当前批数据分发给所述第一网络层对应的各计算节点进行计算处理;
在完成对所述当前批数据的计算后,指示所述第一网络层的前置策略节点向所述第一网络层对应的各计算节点分发下一批数据,并指示所述第二网络层的前置策略节点处理所述当前批数据的计算结果。
3.如权利要求1所述的方法,其特征在于,若任一数据流转规则是第一网络层对应的计算节点并行处理不同批数据,则根据以下步骤调度对应计算节点:
指示所述第一网络层的前置策略节点将当前批数据分发给所述第一网络层对应的各计算节点进行计算处理;
若所述第一网络层对应的任一计算节点完成计算,则指示所述第一网络层的前置策略节点继续向所述计算节点分发下一批数据,并指示第二网络层的前置策略节点处理所述计算节点的计算结果。
4.如权利要求2或3所述的方法,其特征在于,若所述第二网络层对应的任一计算节点与所述第一网络层对应的至少两个计算节点间的数据流转时机为同步流转,则在接收到所述第一网络层对应的所述至少两个计算节点的计算结果后,指示所述第二网络层的前置策略节点将所述至少两个计算节点的计算结果,发送给所述第二网络层对应的所述任一计算节点。
5.如权利要求2或3所述的方法,其特征在于,若所述第二网络层对应的任一计算节点与所述第一网络层对应的一个计算节点间的数据流转时机为异步流转,则在接收到所述第一网络层对应的所述一个计算节点的计算结果后,指示所述第二网络层的前置策略节点将所述计算结果,发送给所述第二网络层对应的所述任一计算节点。
6.一种图像数据的处理装置,其特征在于,大模型的各网络层分布式部署在多个计算节点上,所述装置应用于主控设备,包括:
获取模块,用于获取所述大模型的配置文件,所述配置文件是根据计算节点间的数据流转需求预先配置的;
解析模块,用于解析所述配置文件,得到计算节点间的数据流转关系,所述数据流转关系包括数据流转规则和数据流转时机;
生成模块,用于基于所述数据流转关系,生成用于连接网络层的多个策略节点;
调度模块,用于利用所述多个策略节点调度所述多个计算节点,对输入的图像数据进行推理计算,得到模型输出结果,其中,所述多个计算节点并行处理不同批数据,所述多个计算节点处于同一网络层或处于不同网络层。
7.如权利要求6所述的装置,其特征在于,若任一数据流转规则是第一网络层对应的计算节点和第二网络层对应的计算节点并行处理不同批数据,则所述调度模块具体用于根据以下步骤调度对应计算节点:
指示所述第一网络层的前置策略节点将当前批数据分发给所述第一网络层对应的各计算节点进行计算处理;
在完成对所述当前批数据的计算后,指示所述第一网络层的前置策略节点向所述第一网络层对应的各计算节点分发下一批数据,并指示所述第二网络层的前置策略节点处理所述当前批数据的计算结果。
8.如权利要求6所述的装置,其特征在于,若任一数据流转规则是第一网络层对应的计算节点并行处理不同批数据,则所述调度模块具体用于根据以下步骤调度对应计算节点:
指示所述第一网络层的前置策略节点将当前批数据分发给所述第一网络层对应的各计算节点进行计算处理;
若所述第一网络层对应的任一计算节点完成计算,则指示所述第一网络层的前置策略节点继续向所述计算节点分发下一批数据,并指示第二网络层的前置策略节点处理所述计算节点的计算结果。
9.一种电子设备,其特征在于,包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中:
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1-5任一所述的方法。
10.一种存储介质,其特征在于,当所述存储介质中的计算机程序由电子设备的处理器执行时,所述电子设备能够执行如权利要求1-5任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311228987.8A CN116974654B (zh) | 2023-09-21 | 2023-09-21 | 一种图像数据的处理方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311228987.8A CN116974654B (zh) | 2023-09-21 | 2023-09-21 | 一种图像数据的处理方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116974654A CN116974654A (zh) | 2023-10-31 |
CN116974654B true CN116974654B (zh) | 2023-12-19 |
Family
ID=88473409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311228987.8A Active CN116974654B (zh) | 2023-09-21 | 2023-09-21 | 一种图像数据的处理方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116974654B (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017064554A1 (en) * | 2015-10-13 | 2017-04-20 | Schneider Electric Industries Sas | Method for arranging workloads in a software defined automation system |
CN108460457A (zh) * | 2018-03-30 | 2018-08-28 | 苏州纳智天地智能科技有限公司 | 一种面向卷积神经网络的多机多卡混合并行异步训练方法 |
CN110046704A (zh) * | 2019-04-09 | 2019-07-23 | 深圳鲲云信息科技有限公司 | 基于数据流的深度网络加速方法、装置、设备及存储介质 |
CN111131379A (zh) * | 2019-11-08 | 2020-05-08 | 西安电子科技大学 | 一种分布式流量采集***和边缘计算方法 |
CN111930364A (zh) * | 2020-08-11 | 2020-11-13 | 上海亿锎智能科技有限公司 | 通过动态配置规则装置实现流程节点按条件流转的方法 |
CN113158243A (zh) * | 2021-04-16 | 2021-07-23 | 苏州大学 | 分布式图像识别的模型推理方法及*** |
CN113515370A (zh) * | 2021-04-28 | 2021-10-19 | 之江实验室 | 一种面向大规模深度神经网络的分布式训练方法 |
CN113641447A (zh) * | 2021-07-16 | 2021-11-12 | 北京师范大学珠海校区 | 边缘计算中基于容器层依赖关系的在线学习型调度方法 |
CN114662661A (zh) * | 2022-03-22 | 2022-06-24 | 东南大学 | 边缘计算下异构处理器加速多出口dnn推理的方法 |
CN115062784A (zh) * | 2022-06-13 | 2022-09-16 | 中国科学院软件研究所 | 针对神经网络算子融合的端云协同推理方法及装置 |
CN116450312A (zh) * | 2023-03-02 | 2023-07-18 | 阿里巴巴(中国)有限公司 | 面向流水线并行训练的调度策略确定方法及*** |
CN116450246A (zh) * | 2022-10-15 | 2023-07-18 | 中电万维信息技术有限责任公司 | 一种基于状态机的事件流转可配置方法 |
-
2023
- 2023-09-21 CN CN202311228987.8A patent/CN116974654B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017064554A1 (en) * | 2015-10-13 | 2017-04-20 | Schneider Electric Industries Sas | Method for arranging workloads in a software defined automation system |
CN108460457A (zh) * | 2018-03-30 | 2018-08-28 | 苏州纳智天地智能科技有限公司 | 一种面向卷积神经网络的多机多卡混合并行异步训练方法 |
CN110046704A (zh) * | 2019-04-09 | 2019-07-23 | 深圳鲲云信息科技有限公司 | 基于数据流的深度网络加速方法、装置、设备及存储介质 |
CN111131379A (zh) * | 2019-11-08 | 2020-05-08 | 西安电子科技大学 | 一种分布式流量采集***和边缘计算方法 |
CN111930364A (zh) * | 2020-08-11 | 2020-11-13 | 上海亿锎智能科技有限公司 | 通过动态配置规则装置实现流程节点按条件流转的方法 |
CN113158243A (zh) * | 2021-04-16 | 2021-07-23 | 苏州大学 | 分布式图像识别的模型推理方法及*** |
CN113515370A (zh) * | 2021-04-28 | 2021-10-19 | 之江实验室 | 一种面向大规模深度神经网络的分布式训练方法 |
CN113641447A (zh) * | 2021-07-16 | 2021-11-12 | 北京师范大学珠海校区 | 边缘计算中基于容器层依赖关系的在线学习型调度方法 |
CN114662661A (zh) * | 2022-03-22 | 2022-06-24 | 东南大学 | 边缘计算下异构处理器加速多出口dnn推理的方法 |
CN115062784A (zh) * | 2022-06-13 | 2022-09-16 | 中国科学院软件研究所 | 针对神经网络算子融合的端云协同推理方法及装置 |
CN116450246A (zh) * | 2022-10-15 | 2023-07-18 | 中电万维信息技术有限责任公司 | 一种基于状态机的事件流转可配置方法 |
CN116450312A (zh) * | 2023-03-02 | 2023-07-18 | 阿里巴巴(中国)有限公司 | 面向流水线并行训练的调度策略确定方法及*** |
Non-Patent Citations (3)
Title |
---|
Workload Deployment and Configuration Reconciliation at Scale in Kubernetes-Based Edge-Cloud Continuums;Daniel Hass et al.;《2022 21st International Symposium on Parallel and Distributed Computing (ISPDC)》;全文 * |
分布式访问控制模型中节点级联失效研究;蔡方博;何泾沙;朱娜斐;韩松;;信息网络安全(12);全文 * |
面向边缘设备的高能效深度学习任务调度策略;任杰;高岭;于佳龙;袁璐;;计算机学报(03);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN116974654A (zh) | 2023-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110955734B (zh) | 逻辑节点的分布式签名决策***及其方法 | |
EP4177752A1 (en) | Task processing method, edge computing device, computer device, and medium | |
CN114841327A (zh) | 计算图的处理方法、装置、可读介质及电子设备 | |
CN110503179B (zh) | 计算方法以及相关产品 | |
US8601454B2 (en) | Device and method for automatically optimizing composite applications having orchestrated activities | |
CN115600676A (zh) | 深度学习模型推理方法、装置、设备及存储介质 | |
Liu et al. | Software pipelining for graphic processing unit acceleration: Partition, scheduling and granularity | |
CN116661978B (zh) | 一种分布式的流程处理方法、装置及分布式业务流程引擎 | |
CN116974654B (zh) | 一种图像数据的处理方法、装置、电子设备及存储介质 | |
US20220172044A1 (en) | Method, electronic device, and computer program product for deploying machine learning model | |
US20170339201A1 (en) | Streaming data on data processes | |
CN112825525B (zh) | 用于处理事务的方法和装置 | |
CN106293651A (zh) | 一种通用接口的实现方法及装置 | |
CN110018831A (zh) | 程序处理方法、装置及相关产品 | |
US8904369B2 (en) | Method and system for automated process distribution | |
CN111027196B (zh) | 一种电力设备的仿真分析任务处理方法、装置及存储介质 | |
CN113141407A (zh) | 一种页面资源加载方法、装置和电子设备 | |
CN111860851A (zh) | 用于识别图像的方法和*** | |
CN108596181B (zh) | 文本识别方法、***、机器设备和计算可读存储介质 | |
CN114866808A (zh) | 一种高性能视频处理***、方法及电子设备 | |
CN113377440A (zh) | 基于fpga处理指令的方法、装置、电子设备及介质 | |
CN116880983A (zh) | 一种任务分发的方法、装置、存储介质及电子设备 | |
CN116596205A (zh) | 一种基于bpmn2.0的任务流程编排方法、装置及电子设备 | |
CN116108492A (zh) | 可横向扩展的数据防泄漏*** | |
CN116882725A (zh) | 业务流程生成方法及装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |