CN110928683A - 基于两类密集型虚拟机的边缘计算资源分配方法 - Google Patents

基于两类密集型虚拟机的边缘计算资源分配方法 Download PDF

Info

Publication number
CN110928683A
CN110928683A CN201911112202.4A CN201911112202A CN110928683A CN 110928683 A CN110928683 A CN 110928683A CN 201911112202 A CN201911112202 A CN 201911112202A CN 110928683 A CN110928683 A CN 110928683A
Authority
CN
China
Prior art keywords
virtual machine
time
intensive
data
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911112202.4A
Other languages
English (en)
Other versions
CN110928683B (zh
Inventor
彭成
唐朝晖
桂卫华
周晓红
陈青
赵龙乾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan University of Technology
Original Assignee
Hunan University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan University of Technology filed Critical Hunan University of Technology
Priority to CN201911112202.4A priority Critical patent/CN110928683B/zh
Publication of CN110928683A publication Critical patent/CN110928683A/zh
Application granted granted Critical
Publication of CN110928683B publication Critical patent/CN110928683B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

基于两类密集型虚拟机边缘计算资源分配方法,综合考虑了边缘服务器中IO密集型和CPU密集型虚拟机对资源分配的要求,将虚拟机状态、上传数据类型权重和***加速比、任务完成时间等分别引入两类虚拟机资源分配计算算法中,动态生成IO密集型虚拟机优先级队列和CPU密集型虚拟机所需CPU核心数,可以实现边缘服务器资源的合理分配,从而有效降低了由于密集计算和高资源消耗等对成本和时延造成的影响。克服了传统启发式方法和代价函数等对优先级的设置人为因素影响较大而不利于边缘服务器进行资源分配的问题,最终提高了资源分配的效率。

Description

基于两类密集型虚拟机的边缘计算资源分配方法
技术领域
本发明属于边缘计算资源分配技术领域,具体涉及基于两类密集型虚拟机的边缘计算资源分配方法。
背景技术
在工业制造过程中,工序越来越复杂,采集的基础数据具有多源、异构性,同时由于工业软硬件平台具有较强的独立性和封闭性,使得部署在近制造装备端的边缘计算在数据解析和存储能力上面临极大挑战。因此,通过边缘端服务器资源的合理分配实现服务器资源的充分利用,进一步提高数据存储和计算的速度和效率显得十分重要。虚拟机优先级的计算是进行边缘端服务器资源分配至关重要的一环,虚拟机优先级设置是否合理直接影响边缘端服务器资源分配的准确性。
传统的边缘计算资源分配方法大多假定边缘计算服务器的计算能力和存储容量为无限制状态,已有的资源分配仅考虑计算资源,存储资源分配问题较少涉及,且优先级的设置通常采取代价函数或随机方法,受人为因素影响较大。实际上,优先级的计算与网络性能、数据特征、任务类型、计算能力及存储效率等密切相关,这增大了云端协同计算架构下边缘计算资源分配阈值确定的难度。同时,由于制造物理单元具有动态伸缩性,直接用传统的优先级设置方法难以准确地反映边缘服务器对资源的需求。上述缺点可能会导致边缘服务器运行过程中资源分配难以被及时调整,继而影响边缘计算的效率。
发明内容
为了克服现有技术存在的缺点,本发明提供了一种基于两类密集型虚拟机边缘计算资源分配方法,将IO密集型虚拟机和CPU密集型虚拟机分别进行处理,针对IO密集型虚拟机,结合二阶差分法等生成IO密集型虚拟机优先级队列;针对CPU密集型虚拟机,根据虚拟机对物理机性能的影响、任务完成时间等计算CPU密集型虚拟机的实时需求,并用于边缘计算资源分配,以提升边缘端服务器数据存储效率和计算速度,减少时延,节省成本。
为了达到上述目的,本发明所采用的技术方案为:
基于两类密集型虚拟机的边缘计算资源分配方法,具体步骤如下:
A.计算某个IO密集型虚拟机Vi在采样时刻ti收到来自终端设备发送的数据τi,
Figure BDA0002273054250000021
其中,N表示向边缘端服务器发送数据的终端设备数,n表示某一终端设备上传数据类型的个数,αjk为上传的数据类型对应的数据规模大小,ε表示采样和计算产生的误差;
B.对IO密集型虚拟机Vi收到的数据进行二阶差分,获得数据上传速率增量Δv:
假设IO密集型虚拟机Vi处理数据的平均速度为vi,则需要时间t′i将ti时刻发送的数据全部存储到数据库中,即
Figure BDA0002273054250000022
再将IO密集型虚拟机Vi的处理时间t′i分为三个部分t′i,t′i+1,t′i+2,表示需要经过三个阶段才能将数据存储到数据库中,得到数据上传速率增量Δv,
Δv=τi+2-2τi+1i
其中,τi+2,τi+1,τi分别对应t′i+2,t′i+1,t′i时刻虚拟机Vi存储到数据库中的数据量;
C.根据上传速率增量Δv判断IO密集型虚拟机Vi所有可能的状态,用集合status={1,2,3,4,5,6}来表示,其中1为无数据状态,2为减少状态,3为稳定状态,4为增加状态,5为预警状态,6为超量状态;
D.计算IO密集型虚拟机Vi当前状态与前一个状态相同的概率
Figure BDA0002273054250000031
其中,ξi表示虚拟机当前状态与前一个状态相同的次数,numi为状态集合status的真子集,表示虚拟机Vi工作时段下状态变化集合;
E.计算IO密集型虚拟机Vi存储数据的优先级pi
Figure BDA0002273054250000032
其中,Si pre表示IO密集型虚拟机Vi软分配的预存储空间大小,Si post表示虚拟机Vi在ti时刻已存储到存储节点的数据大小;
F.计算控制节点中的控制器对IO密集型虚拟机Vi进行资源配置的优先级Pi,Pi值越大,说明该虚拟机越需要及时分配到更多的计算资源,以提高数据存储的速率,
Figure BDA0002273054250000033
其中,W为不同类型的数据对应的权重集合,W={w1,w2,...,wn},n表示终端设备上传数据类型的数目;
G.给边缘服务器中的每个IO密集型虚拟机分配一个优先级Pi并建立最大优先级队列P,通过优先级队列P的变化对IO密集型虚拟机的资源配置进行相应的更新,优化并合理分配存储资源;
H.计算某个CPU密集型虚拟机Vi′中所有任务在并行伪分布条件下执行所需时间Time,
Figure BDA0002273054250000041
其中,time表示单个任务执行的平均时间,C为CPU核心数,T为CPU密集型虚拟机Vi′中同时执行任务的个数;
I.计算CPU密集型虚拟机Vi′的加速比sp,
Figure BDA0002273054250000042
其中,Rn为CPU密集型虚拟机Vi′在并行伪分布式条件下完成任务的最小执行时间,Rd为CPU密集型虚拟机Vi′在并行分布式条件下完成任务的最小执行时间;
J.当虚拟机数量超过宿主机CPU核心数C时,随着虚拟机数量的增加,物理机性能逐渐降低,影响因子为θ,得到虚拟机个数G和影响因子θ的关系,
Figure BDA0002273054250000043
其中,G为虚拟机个数;
K.定义CPU密集型虚拟机Vi′中所有任务在并行分布条件下执行所需时间Time′,
Figure BDA0002273054250000051
其中,sp为加速比,θ为影响因子,Time为CPU密集型虚拟机Vi′中所有任务在并行伪分布条件下执行所需时间;
L.设置CPU密集型虚拟机Vi′中所有任务要求完成的时间上限Req_Time'=Time_com+Time_cor,其中,Time_com为任务实际完成时间,Time_cor为通信延迟时间,所有任务能顺利完成,需满足Time'≤Req_Time',若不满足,则需要对计算资源即CPU核心数进行分配,具体过程是:假设b个任务中有d个未按时完成的任务b′={b′1,b′2,...,b′d},其执行时间为
Figure BDA0002273054250000052
对应的要求完成的时间上限为
Figure BDA0002273054250000053
则当前情况下,CPU密集型虚拟机Vi′需分配的计算资源如下式所示:
Figure BDA0002273054250000054
其中,
Figure BDA0002273054250000055
为CPU密集型虚拟机Vi′需分配的CPU核心数。
本发明的有益效果为:
本发明综合考虑了边缘服务器中IO密集型和CPU密集型虚拟机对资源分配的要求,将虚拟机状态、上传数据类型权重和***加速比、任务完成时间等分别引入两类虚拟机资源分配优先级计算算法中,可以实现边缘服务器资源的合理分配,从而有效降低了由于密集计算和高资源消耗等对成本和时延造成的影响。克服了传统随机方法和代价函数等对优先级的设置人为因素影响较大而不利于边缘服务器进行资源分配的问题,最终提高了资源分配的效率。
附图说明
图1为本发明的流程图;
图2为资源分配结果图;
图3为本发明多任务并发执行与其他方法的时间比较图。
具体实施方式
下面结合附图对本发明做进一步的详细描述。
参照图1,基于两类密集型虚拟机的边缘计算资源分配方法,包括以下步骤:
A.计算某个IO密集型虚拟机Vi∈V={V1,V2,…,VQ},Q为虚拟机数,在采样时刻ti收到来自终端设备发送的数据τi,
Figure BDA0002273054250000061
其中,N表示向边缘端服务器发送数据的终端设备数,n表示某一终端设备上传数据类型集合Sj={sj1,sj2,…,sjn}中元素个数,αjk∈αj={αj1j2,...αjk,...αjn}为上传数据类型对应的数据规模大小,ε表示采样和计算产生的误差;
B.对IO密集型虚拟机Vi收到的数据进行二阶差分,获得数据上传速率增量Δv:
假设虚拟机Vi处理数据的平均速度为vi,则需要时间t′i将ti时刻发送的数据全部存储到数据库中,即
Figure BDA0002273054250000071
再将IO密集型虚拟机Vi的处理时间t′i分为三个部分t′i,t′t+1,t′i+2,表示需要经过三个阶段才能将数据存储到数据库中,得到数据上传速率增量Δv,
Δv=τi+2-2τi+1i
其中,τi+2,τi+1,τi分别对应t′i+2,t′i+1,t′i时刻虚拟机Vi存储到数据库中的数据量;
C.根据上传速率增量Δv判断IO密集型虚拟机Vi的所有可能状态,用集合status={1,2,3,4,5,6}来表示,其中1为无数据状态,2为减少状态,3为稳定状态,4为增加状态,5为预警状态,6为超量状态;设定:当Δv≈-τi时,在该时间段虚拟机没有收到终端设备发送的数据,为无数据状态;当-τi<Δv<0时,在该时间段终端设备上传的数据在减少,为减少状态;当Δv≈0时,在该时间段终端设备上传的数据基本保持不变,为稳定状态;当Δv<M0时,在该时间段终端设备上传的数据在增加,为增加状态;当M0≤Δv<M1时,在该时间段终端设备上传的数据已经超过预警值M0,为预警状态;当Δv≥M1时,在该时间段终端设备上传的数据超过存储节点的实际物理存储量,为超量状态,需要通过增加硬盘空间或者优化数据存储方案来解决终端设备数据上传的速率,其中M1为边缘端服务器存储空间的实际存储大小。
D.计算IO密集型虚拟机Vi当前状态与前一个状态相同的概率
Figure BDA0002273054250000081
其中,ξi表示虚拟机当前状态与前一个状态相同的次数,numi为状态集合status的真子集,表示虚拟机Vi工作时段下的状态变化集合;
E.计算IO密集型虚拟机Vi存储数据的优先级pi
Figure BDA0002273054250000082
其中,Si pre表示虚拟机Vi软分配的预存储空间大小,Si post表示虚拟机Vi在ti时刻已存储到存储节点的数据大小;
F.计算控制节点中的控制器对虚拟机Vi进行资源配置的优先级Pi,Pi值越大,说明该虚拟机越需要及时分配到更多的计算资源,以提高数据存储的速率,
Figure BDA0002273054250000083
其中,W为不同类型的数据对应的权重集合,W={w1,w2,...,wn};
G.给边缘服务器中的每个IO密集型虚拟机分配一个优先级Pi并建立最大优先级队列P,通过优先级队列P的变化对IO密集型虚拟机的资源配置进行相应的更新,优化并合理分配存储资源;
H.计算某个CPU密集型虚拟机Vi′中所有任务在并行伪分布条件下执行所需时间Time,
Figure BDA0002273054250000084
其中,time表示单个任务执行的平均时间,C为CPU核心数,T为CPU密集型虚拟机Vi′中同时执行任务的个数;
I.计算CPU密集型虚拟机Vi′的加速比sp,
Figure BDA0002273054250000091
其中,Rn为CPU密集型虚拟机Vi′在并行伪分布式条件下完成任务的最小执行时间,Rd为CPU密集型虚拟机Vi′在并行分布式条件下完成任务的最小执行时间;
J.当虚拟机数量超过宿主机CPU核心数C时,随着虚拟机数量的增加,物理机性能逐渐降低,影响因子为θ,得到虚拟机个数G和影响因子θ的关系,
Figure BDA0002273054250000092
其中,G为虚拟机个数;
K.定义CPU密集型虚拟机Vi′中所有任务在并行分布条件下执行所需时间Time′,
Figure BDA0002273054250000093
其中,sp为加速比,θ为影响因子,Time为CPU密集型虚拟机Vi′中所有任务在并行伪分布条件下执行所需时间;
L.设置CPU密集型虚拟机Vi′中所有任务要求完成的时间上限Req_Time'=Time_com+Time_cor,其中,Time_com为任务实际完成时间,Time_cor为通信延迟时间,所有任务能顺利完成,需满足Time'≤Req_Time',若不满足,则需要对计算资源即CPU核心数进行分配,具体过程是:假设b个任务中有d个未按时完成的任务b′={b′1,b′2,...,b′d},其执行时间为
Figure BDA0002273054250000101
对应的要求完成的时间上限为
Figure BDA0002273054250000102
则当前情况下,CPU密集型虚拟机Vi′需分配的计算资源如下式所示:
Figure BDA0002273054250000103
其中,
Figure BDA0002273054250000104
为CPU密集型虚拟机Vi′需分配的CPU核心数;
M.为了证明本发明方法的有效性,将其与不同的方法进行比较,作进一步描述。本发明通过VMware VSphere虚拟化平台创建边缘端服务器的虚拟环境,包括1个Controller节点,4个IO密集型虚拟机,3个CPU密集型虚拟机。
首先,分别在4个IO密集型虚拟机上运行资源分配器的client服务,监听所在虚拟机的IO性能,通过计算得到优先级并发送给Controller节点,Controller节点上运行资源分配器的server服务,收集IO密集型虚拟机的优先级,根据最大优先级列表来响应IO密集型虚拟机的资源请求。本发明采用的算法与目前流行启发式算法---遗传算法相比较,不难发现本发明采用的算法在保证采样宽度充足的情况下,可为IO密集型虚拟机最优响应分配资源。而遗传算法由于采用随机数具有不确定性,资源响应不够合理,例如7s~23s之间,资源分配时间过于紧凑,导致部分资源可能重复分配;60s处资源分配没有考虑到59s处数据继续升高的可能性,鲁棒性不够。因此,本发明算法能较好地根据业务需求,自适应地为IO密集型虚拟机分配资源,具体结果如图2所示。
接着,分别在3个CPU密集型虚拟机上运行Hadoop和Spark分布式存储和计算框架。针对常见的CPU密集型应用程序如WordCount,Sort,TeraSort,RandomWriter等,通过HiBench生成不同规模的测试数据集存储在HDFS文件***中并提交给Spark执行相应的任务,本发明采用的算法从虚拟机对物理机性能的影响及不同配置的虚拟机对任务执行时间的影响两个维度出发,计算出CPU密集型虚拟机最佳资源分配方法。与目前流行的遗传算法相比,实验在6个任务并发执行100次后的完成时间如图3所示,其中,(a)为Task-1WordCount执行时间比较,(b)为Task-2 Sort执行时间比较,(c)为Task-3 TeraSort执行时间比较,(d)为Task-4 RandomWriter执行时间比较,(e)为Task-5 Grep执行时间比较,(f)为Task-6 TestDFSIO执行时间比较,本发明采用的方法具有更高的运行效率。

Claims (1)

1.一种基于两类密集型虚拟机的边缘计算资源分配方法,具体步骤如下:
A.计算某个IO密集型虚拟机Vi在采样时刻ti收到来自终端设备发送的数据τi,即
Figure FDA0002273054240000011
其中,N表示向边缘端服务器发送数据的终端设备数,n表示某一终端设备上传数据类型的个数,αjk为上传的数据类型对应的数据规模大小,ε表示采样和计算产生的误差;
B.对IO密集型虚拟机Vi收到的数据进行二阶差分,获得数据上传速率增量Δv:
首先假设IO密集型虚拟机Vi处理数据的平均速度为vi,则需要时间ti′将ti时刻发送的数据全部存储到数据库中,即
Figure FDA0002273054240000012
再将IO密集型虚拟机Vi的处理时间ti′分为三个部分t′i,t′i+1,t′i+2,表示需要经过三个阶段才能将数据存储到数据库中,得到数据上传速率增量Δv,
Δv=τi+2-2τi+1i
其中,τi+2,τi+1,τi分别对应t′i+2,t′i+1,ti′时刻IO密集型虚拟机Vi存储到数据库中的数据量;
C.根据上传速率增量Δv判断IO密集型虚拟机Vi所有可能的状态,用集合status={1,2,3,4,5,6}来表示,其中1为无数据状态,2为减少状态,3为稳定状态,4为增加状态,5为预警状态,6为超量状态;
D.计算IO密集型虚拟机Vi当前状态与前一个状态相同的概率
Figure FDA0002273054240000021
其中,ξi表示虚拟机当前状态与前一个状态相同的次数,numi为状态集合status的真子集,表示虚拟机Vi工作时段下状态变化集合;
E.计算虚拟机Vi存储数据的优先级pi
Figure FDA0002273054240000022
其中,Si pre表示IO密集型虚拟机Vi软分配的预存储空间大小,Si post表示虚拟机Vi在ti时刻已存储到存储节点的数据大小;
F.计算控制节点中的控制器对IO密集型虚拟机Vi进行资源配置的优先级Pi,Pi值越大,说明该虚拟机越需要及时分配到更多的计算资源,以提高数据存储的速率,
Figure FDA0002273054240000023
其中,W为不同类型的数据对应的权重集合,W={w1,w2,...,wn};
G.给边缘服务器中的每个IO密集型虚拟机分配一个优先级Pi并建立最大优先级队列P,通过优先级队列P的变化对IO密集型虚拟机的资源配置进行相应的更新,优化并合理分配存储资源;
H.计算某个CPU密集型虚拟机Vi′中所有任务在并行伪分布条件下执行所需时间Time,
Figure FDA0002273054240000031
其中,time表示单个任务执行的平均时间,C为CPU核心数,T为CPU密集型虚拟机Vi′中同时执行任务的个数;
I.计算CPU密集型虚拟机Vi′的加速比sp,
Figure FDA0002273054240000032
其中,Rn为CPU密集型虚拟机Vi′在并行伪分布式条件下完成任务的最小执行时间,Rd为CPU密集型虚拟机Vi′在并行分布式条件下完成任务的最小执行时间;
J.当虚拟机数量超过宿主机CPU核心数C时,随着虚拟机数量的增加,物理机性能逐渐降低,影响因子为θ,得到虚拟机个数G和影响因子θ的关系,
Figure FDA0002273054240000033
其中,G为虚拟机个数;
K.定义CPU密集型虚拟机Vi′中所有任务在并行分布条件下执行所需时间Time′,
Figure FDA0002273054240000034
其中,sp为加速比,θ为影响因子,Time为CPU密集型虚拟机Vi′中所有任务在并行伪分布条件下执行所需时间;
L.设置CPU密集型虚拟机Vi′中所有任务要求完成的时间上限Req_Time'=Time_com+Time_cor,其中,Time_com为任务实际完成时间,Time_cor为通信延迟时间,所有任务能顺利完成,需满足Time'≤Req_Time',若不满足,则需要对计算资源即CPU核心数进行分配,具体过程是:假设b个任务中有d个未按时完成的任务b′={b′1,b′2,...,b′d},其执行时间为
Figure FDA0002273054240000041
对应的要求完成的时间上限为
Figure FDA0002273054240000042
则当前情况下,CPU密集型虚拟机Vi′需分配的计算资源如下式所示:
Figure FDA0002273054240000043
其中,
Figure FDA0002273054240000044
为CPU密集型虚拟机Vi′需分配的CPU核心数。
CN201911112202.4A 2019-11-14 2019-11-14 基于两类密集型虚拟机的边缘计算资源分配方法 Expired - Fee Related CN110928683B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911112202.4A CN110928683B (zh) 2019-11-14 2019-11-14 基于两类密集型虚拟机的边缘计算资源分配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911112202.4A CN110928683B (zh) 2019-11-14 2019-11-14 基于两类密集型虚拟机的边缘计算资源分配方法

Publications (2)

Publication Number Publication Date
CN110928683A true CN110928683A (zh) 2020-03-27
CN110928683B CN110928683B (zh) 2022-01-28

Family

ID=69854013

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911112202.4A Expired - Fee Related CN110928683B (zh) 2019-11-14 2019-11-14 基于两类密集型虚拟机的边缘计算资源分配方法

Country Status (1)

Country Link
CN (1) CN110928683B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116684483A (zh) * 2023-08-02 2023-09-01 北京中电普华信息技术有限公司 一种边缘物联代理通信资源分配的方法及相关产品

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105718310A (zh) * 2016-01-13 2016-06-29 上海应用技术学院 一种云平台下io密集型应用的虚拟机调度方法
CN106951330A (zh) * 2017-04-10 2017-07-14 郑州轻工业学院 一种云服务中心服务效用最大化的虚拟机分配方法
US10037231B1 (en) * 2017-06-07 2018-07-31 Hong Kong Applied Science and Technology Research Institute Company Limited Method and system for jointly determining computational offloading and content prefetching in a cellular communication system
CN108804227A (zh) * 2018-05-23 2018-11-13 大连理工大学 基于移动云计算的计算密集型任务卸载和最佳资源配置的方法
US20190116128A1 (en) * 2017-10-18 2019-04-18 Futurewei Technologies, Inc. Dynamic allocation of edge computing resources in edge computing centers

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105718310A (zh) * 2016-01-13 2016-06-29 上海应用技术学院 一种云平台下io密集型应用的虚拟机调度方法
CN106951330A (zh) * 2017-04-10 2017-07-14 郑州轻工业学院 一种云服务中心服务效用最大化的虚拟机分配方法
US10037231B1 (en) * 2017-06-07 2018-07-31 Hong Kong Applied Science and Technology Research Institute Company Limited Method and system for jointly determining computational offloading and content prefetching in a cellular communication system
US20190116128A1 (en) * 2017-10-18 2019-04-18 Futurewei Technologies, Inc. Dynamic allocation of edge computing resources in edge computing centers
CN108804227A (zh) * 2018-05-23 2018-11-13 大连理工大学 基于移动云计算的计算密集型任务卸载和最佳资源配置的方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
GIOVANNI MERLINO等: "Enabling Workload Engineering in Edge, Fog, and Cloud Computing through OpenStack-based Middleware", 《ACM TRANSACTIONS ON INTERNET TECHNOLOGY》 *
QIANG FAN等: "Application Aware Workload Allocation for Edge Computing-Based IoT", 《 IEEE INTERNET OF THINGS JOURNAL》 *
XUDONG NIU等: "Workload Allocation Mechanism for Minimum Service Delay in Edge Computing-Based Power Internet of Things", 《IEEE ACCESS 》 *
朱新峰等: "移动边缘计算环境下的动态资源分配策略", 《计算机工程与科学》 *
赵龙乾等: "基于云端协同计算架构的边缘端I/O密集型虚拟机资源分配方案", 《计算机应用研究》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116684483A (zh) * 2023-08-02 2023-09-01 北京中电普华信息技术有限公司 一种边缘物联代理通信资源分配的方法及相关产品
CN116684483B (zh) * 2023-08-02 2023-09-29 北京中电普华信息技术有限公司 一种边缘物联代理通信资源分配的方法及相关产品

Also Published As

Publication number Publication date
CN110928683B (zh) 2022-01-28

Similar Documents

Publication Publication Date Title
US20220391771A1 (en) Method, apparatus, and computer device and storage medium for distributed training of machine learning model
CN111381950B (zh) 一种面向边缘计算环境基于多副本的任务调度方法和***
CN108845874B (zh) 资源的动态分配方法及服务器
KR20180077218A (ko) 계산 그래프들 프로세싱
CN110502323B (zh) 一种云计算任务实时调度方法
CN111274036A (zh) 一种基于速度预测的深度学习任务的调度方法
US20210216375A1 (en) Workload placement for virtual gpu enabled systems
CN111367630A (zh) 一种基于云计算的多用户多优先级的分布式协同处理方法
CN103401939A (zh) 一种采用混合调度策略的负载均衡方法
CN111131486B (zh) 执行节点的负载调节方法、装置、服务器及存储介质
CN112087332B (zh) 一种云边协同下的虚拟网络性能优化***
CN114647515A (zh) 一种面向gpu集群的动态资源调度方法
US9665409B2 (en) Methods and apparatus facilitating access to storage among multiple computers
CN113778691A (zh) 一种任务迁移决策的方法、装置及***
CN116684420A (zh) 集群资源调度方法、装置、集群***和可读存储介质
CN109976873B (zh) 容器化分布式计算框架的调度方案获取方法及调度方法
CN110928683B (zh) 基于两类密集型虚拟机的边缘计算资源分配方法
US20210390405A1 (en) Microservice-based training systems in heterogeneous graphic processor unit (gpu) cluster and operating method thereof
Perepelitsyn et al. Method of QoS evaluation of FPGA as a service
CN110618865A (zh) Hadoop任务调度方法及装置
Iverson et al. Hierarchical, competitive scheduling of multiple dags in a dynamic heterogeneous environment
CN116501828B (zh) 基于非结构化数据集的服务器无感知向量查询方法和***
CN110743164B (zh) 一种用于降低云游戏中响应延迟的动态资源划分方法
Xiao et al. Workload-aware Reliability Evaluation Model in Grid Computing.
CN115712501A (zh) 一种适用于工程机械的云仿真方法和***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20220128