CN110231976A - 一种基于负载预测的边缘计算平台容器部署方法及*** - Google Patents
一种基于负载预测的边缘计算平台容器部署方法及*** Download PDFInfo
- Publication number
- CN110231976A CN110231976A CN201910420328.1A CN201910420328A CN110231976A CN 110231976 A CN110231976 A CN 110231976A CN 201910420328 A CN201910420328 A CN 201910420328A CN 110231976 A CN110231976 A CN 110231976A
- Authority
- CN
- China
- Prior art keywords
- node
- container
- load
- original
- task
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
- G06F9/45558—Hypervisor-specific management and integration aspects
- G06F2009/4557—Distribution of virtual machine instances; Migration and load balancing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种基于负载预测的边缘计算平台容器部署方法及***,包括多个计算节点和一个中心节点,计算节点上搭载一个原始负载监测***,原始负载监测***分别于节点负载预测***连接,并通过节点负载预测***上传至中心服务器,中心节点上搭载了节点负载预测***和计算任务管理***,节点负载预测***上设置有对应各计算节点的LSTM模型,节点负载预测***接收节点原始负载信息并将预测的结果发送至计算任务管理***;计算任务管理***负责容器的部署,计算任务管理***根据接收的信息反馈节点号、任务时间给节点负载预测***,并下发容器到可用的计算节点。本发明合理的部署容器至各计算节点,降低了计算任务的成本。
Description
技术领域
本发明属于边缘计算平台技术领域,具体涉及一种基于负载预测的边缘计算平台容器部署方法及***。
背景技术
近年来随着移动互联网的发展,互联网数据量呈现***式增长,越来越多的互联网业务也都基于对大数据的分析。这些都导致了对计算资源的需求飞速提升。单机的计算能力已经不能满足需求。因此云计算应运而生。云计算是分布式计算、并行计算、虚拟化、负载均衡等传统计算机和网络技术发展融合的产物。云计算将大量的服务器通过虚拟机技术虚拟为一个个计算资源节点,用户无需关心硬件的实现和维护,只需要在云端购买计算资源,即可快速的获取自己所需的资源。传统云计算平台是由高性能服务器构建的。高性能服务器性能高,但是其价格昂贵,耗电量高,热功率大,需要专门设计的机房。运维费用已经成为云计算集群成本的主要部分。同时,云计算呈现中心化态势,无论用户身处何处,其访问的计算资源都集中存放于云计算数据中心。这样会导致用户的网络成本高昂。边缘计算恰好解决了上述问题。边缘计算是地理分布式的云计算,它与传统中云计算所有计算资源集中于一个机房不同,它将云计算节点下放至用户身边,而且其节点常常不是专用的高性能服务器而是用户身边已经存在的设备,如移动网络基站,智能路由器,智能手机等。边缘计算地理分布式的设计不仅降低了用户的网络成本,同时也降低了计算资源提供方的运维成本。
容器是一种新型的软件标准单元,它包含软件本体和其运行需要的各种依赖,可以快速可信的部署到各种计算环境中。同时,由于容器不对硬件进行虚拟化,因此没有虚拟化的损耗,相比于虚拟机来说更适用于计算节点性能不高的情况,边缘计算的计算节点大部分正是如此。由于边缘计算是分布式的,同时为了充分利用计算资源,因此会把一个计算任务分割成适当的子任务,把每个子任务包装到一个容器中,然后将其部署到各个节点上运行。因此如何把一个计算任务包含的一组容器部署到各个计算节点,如何保证同期的正常运行和节点资源的合理占用是非常重要的。对此业界提出了各种算法。目前常见的容器部署算法多是在满足容器资源需求的前提下均衡各节点负载。有些算法会将更多指标纳入考虑范围,如节点能耗,网络时延等,以实现节能、提高服务质量等目的。现有的容器部署算法仍多是针对专用节点的,针对非专用节点的容器部署算法仍有较大空白。同时,现有的容器部署算法往往考虑的是节点现在的负载,而容器往往会运行一段时间,因此容器运行过程中可能出现节点资源不足的问题,此时就需要通过反馈机制来进行容器迁移,而容器迁移又会导致不必要的网络和存储开销,增加成本。
发明内容
本发明所要解决的技术问题在于针对上述现有技术中的不足,提供一种基于负载预测的边缘计算平台容器部署方法及***,针对目前容器部署算法只利用节点当前负载信息导致反馈滞后的问题,即通过预测节点上近一段时间的资源占用率,在保证节点原有任务运行良好的前提下,合理部署容器到各计算节点。
本发明采用以下技术方案:
一种基于负载预测的边缘计算平台容器部署***,包括:
多个计算节点和一个中心节点,每个计算节点上存在一个边缘计算平台分发的任务之外的长期运行的任务,称之为原始任务,其负载称为原始负载,中心节点是专用的;
每个计算节点上搭载一个原始负载监测***,每个原始负载监测***分别于节点负载预测***连接,用于收集节点原始任务的资源占用情况,并通过节点负载预测***上传至中心服务器,用于预测模型训练及节点负载预测;
中心节点上搭载了节点负载预测***和计算任务管理***,节点负载预测***上设置有对应各计算节点的LSTM模型,节点负载预测***接收节点原始负载信息并将预测的结果发送至计算任务管理***;
计算任务管理***负责容器的部署,计算任务管理***根据接收的信息反馈节点号、任务时间给节点负载预测***,并下发容器到可用的计算节点。
具体的,原始负载监测***在未有计算任务运行的每一个节点上运行一个原始负载信息收集守护进程,原始负载信息收集守护进程每5分钟收集一次节点的原始负载信息,构成一条4维的原始负载向量L(t)=(φ1,φ2,φ3,φ4),存入数据库中,在未有计算任务运行的每一个节点上运行一个原始负载信息上传守护进程,原始负载信息上传守护进程每60分钟将60分钟内的原始负载向量从数据库中读取并上传至中心服务器。
进一步的,原始负载信息包括CPU使用率、GPU使用率、内存剩余容量和网络使用率。
具体的,LSTM模型的网络输入层为三维数据[samples,time_steps,features],Samples为训练样本数量;time_steps为时间步长,即每个数据与之前多少个时间点的输入数据有关;features为特征值,即负载向量L(t)。
进一步的,使用R个原始负载信息预测k时间之后的原始负载信息;预测视野设为k,k为时间间隔s=5分钟的整数倍;f表示要求解的模型,L(t+k)表示t+k时刻节点的原始负载信息,预测行为如下:
L(t+k)=f(L(t-R+1),L(t-R+2),L,L(t-1),L(t))
其中,f函数的输入输出对即构成了需要的数据集的输入和输出;一条LSTM输入输出数据对为:
<(L(t-R+1),L(t-R+2),L,L(t-1),L(t)),L(t+k)>。
具体的,计算任务管理***用于负责容器的部署,当计算任务管理***接到一个任务后,根据任务输入规模将任务分割成适于在节点上运行的s份子任务,包装进s个容器中;估算出单个容器运行过程中最大负载信息L'max和运行时间T;然后通过各节点的LSTM模型预测接下来T时间内各节点的原始负载信息Li(t),设共有n个节点,当前时间为t1,则有0<i≤n,t1<t<t1+T;然后选出s个既能满足容器负载需求即L'max+Li(t)<1且最大化资源利用即max(L'max+Li(t))的节点,为可用节点;最后将s个容器分别部署至可用节点上运行,并在运行完成后获取子任务结果并合并成最终结果。
本发明的另一个技术方案是,一种基于负载预测的边缘计算平台容器部署***的工作方法,包括以下步骤:
S1、计算任务管理***将计算任务分割成S份子任务,分别包装进容器中,根据用户提交的任务配置文件估算单个容器运行过程中的最大负载信息Lmax和运行时间T;
S2、计算任务管理***初始化节点,然后通过节点负载预测***预测T时间内当前节点原始负载信息L,判断T时间内当前节点剩余资源是否满足需要,以及是否最大化资源利用,然后如果满足需要且最大化资源利用则加入可用节点列表;
S3、当T时间内当前节点剩余资源不满足需要或没有最大化资源利用或者可用节点列表中没有S个节点时,对节点号加1并返回步骤S2;
S4、如果已遍历所有节点,将容器分发到可用节点上,结束部署。
具体的,步骤S2中,如果可用节点列表中是否已经有S个节点,将容器分发到可用节点上,结束部署。
与现有技术相比,本发明至少具有以下有益效果:
本发明提出的基于资源预测的边缘计算平台容器部署方法,充分的考虑边缘计算节点是非专用节点,要保证原始任务正常运行的现状。通过对原始任务的资源占用进行预测,在保证原始任务正常运行的情况下合理进行容器的部署。同时,相比于传统容器部署方法基于的是现在的信息,基于资源预测的容器部署基于的是未来的信息,因此避免了传统方法反馈滞后的问题,减少了节点资源不足导致的容器迁移。
进一步的,采用原始负载监测***充分考虑计算节点非专用的特点,针对性的收集原始任务的负载信息,相比于直接监控节点负载情况更为合理。
进一步的,基于预测的负载信息来部署容器,相比于只考虑节点当前时间的负载,充分考虑了计算任务会执行一段时间的特点,避免了任务运行过程中节点资源不足导致的任务迁移,避免了迁移导致的资源消耗。
进一步的,判断T时间内当前节点剩余资源是否满足需要,又判断是否最大化资源利用,相比于只判断节点剩余资源是否满足需要可以更充分地利用节点资源,减少浪费。
综上所述,本发明提出基于资源预测的边缘计算平台容器部署方法考虑了边缘计算中非专用计算节点的现状,同时采取资源预测的方法避免了反馈的滞后性,可以更加合理的部署容器至各计算节点,降低了计算任务的成本。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
图1为本发明***结构图;
图2为本发明LSTM的基本结构;
图3为本发明容器部署方法流程图。
具体实施方式
由于边缘计算的计算节点常为非专用的,因此在计算任务下发至节点前,节点上已经存在一个长期运行的任务,把这一任务称为原始任务,其导致的资源占用称为原始负载。
请参阅图1,本发明提供的基于负载预测的边缘计算平台容器部署***,包括原始负载监测***、节点负载预测***和计算任务管理***,原始负载监测***长期运行在计算节点上,节点负载预测***和计算任务管理***长期运行在中心节点,多个计算节点分别与节点负载预测***连接,用于将节点原始负载信息发送至节点负载预测***,节点负载预测***接收节点原始负载信息并将根据计算任务管理***需要返回预测的结果至计算任务管理***,计算任务管理***根据接收到的预测结果选择可用的计算节点,并下发容器到可用的计算节点。
a、原始负载监测***
原始负载监测***收集节点的原始任务的资源占用情况,并将其上传至中心服务器,用于预测模型训练及节点负载预测。
在未有计算任务运行的每一个节点上运行一个原始负载信息收集守护进程(称为collectd),collectd每5分钟收集一次节点的原始负载信息,原始负载信息包括:CPU使用率、GPU使用率、内存剩余容量、网络使用率。原始负载信息构成一条4维的负载向量L(t)=(φ1,φ2,φ3,φ4),存入数据库中。
在未有计算任务运行的每一个节点上运行一个原始负载信息上传守护进程(称为uploadd),uploadd每60分钟将60分钟内的前述负载向量从数据库中读取并上传至中心服务器。
b、节点负载预测***
由于节点上长期运行原始任务,因此节点的原始负载具有周期特性。针对这一特性提出了一种基于长短期记忆神经网络(LSTM)的节点原始负载预测方法,每个节点都拥有自己的LSTM模型。
LSTM网络输入层是三维数据[samples,time_steps,features],具体为:
Samples为训练样本;
time_steps表示时间步长,即每个数据与之前多少个时间点的输入数据有关;
features表示特征值,即负载向量L(t)。
使用最近的R个原始负载信息来预测k时间之后的原始负载信息,即time_steps=R;预测视野设为k,k需为时间间隔s=5分钟的整数倍;也就是说,要使用时间点t及其最近的12个原始负载信息,来预测时间点t+k的原始负载信息。
用f表示要求解的模型,L(t+k)表示t+k时刻节点的原始负载信息,预测行为如下:
L(t+k)=f(L(t-R+1),L(t-R+2),L,L(t-1),L(t))
其中,f函数的输入输出对即构成了需要的数据集的输入和输出。
所以,<(L(t-R+1),L(t-R+2),L,L(t-1),L(t)),L(t+k)>构成一条LSTM输入输出数据对。
请参阅图2,LSTM每个基本单元有三个阀门来调节之前的网络记忆状态是否作用于当前网络的计算。
三个门分别为:遗忘门(forget gate),输入门(input gate)和输出门(outputgate)。
遗忘门(forget gate)控制之前的隐含层状态hn-1有多少保留到当前时刻hn;
输入门(input gate)控制当前时刻网络的输入Xn有多少保存到隐含层状态hn;
输出门(output gate)控制隐含层状态hn有多少输出到当前时刻输出值Yn。
三个控制阀门组成LSTM的基本单元,称为cell,下图是LSTM神经网络一个单元的基本结构,其中fn表示遗忘门,in表示输入门,on表示输出门,hn表示当前单元状态。LSTM神经网络cell的基本结构如图2所示。
遗忘门fn表示为:
fn=δ(Wf,xXn+Wf,yYn-1+bf)
输入门in表示为:
in=δ(Wi,xXn+Wi,yYn-1+bi)
输出门on表示为:
on=δ(Wo,xXn+Wo,yYn-1+bo)
当前单元输出hn表示为:
hn=hn-1fn+intanh(WcXn+UcYn-1+bc)
当前单元状态:
yn=ontanh(hn)
其中,δ为sigmoid函数,作用于遗忘门(forget gate),输入门(input gate)和输出门(output gate)上,其输出为[0,1],每个值表示对应的部分信息是否应该通过。0值表示不允许信息通过,1值表示让所有信息通过;而tanh函数用于状态和输出;W为权重,如Wf,x为遗忘门对应的上一时态输出信息的权重,b表示偏置。
LSTM网络结构参数设置如下:
time_steps设置为12,即每个数据与之前12个时间点的数据相关联;
预测视野设置为5,即预测的是5分钟后的原始负载向量;
隐含层节点数设置为10。Activation即激活函数设置为'tanh';
Recurrent_activation为循环步施加的激活函数采用设置为'hard_sigmoid';
Dropout设置为0.2;
Batch_size设置为128;
Optimizer即优化器设置为Adam优化器;
Loss函数设置为MAE。
c、计算任务管理***
计算任务管理***负责容器的部署。当管理***接到一个任务后,会根据任务输入规模将任务分割成适于在节点上运行的s份子任务,包装进s个容器中。然后估算出单个容器的运行过程中的最大负载信息L'max和运行时间T。
然后通过各节点的LSTM模型预测接下来T时间内各节点的原始负载信息Li(t)设共有n个节点,当前时间为t1,则有0<i≤n,t1<t<t1+T。然后选出s个既能满足容器负载需求即L'max+Li(t)<1且最大化资源利用即max(L'max+Li(t))的节点。最后将s个容器部署至上述节点上运行,并在运行完成后获取子任务结果并合并成最终结果。
请参阅图3,容器部署方法具体如下:
S1、计算任务管理***将计算任务分割成S份子任务,分别包装进容器中,根据用户提交的任务配置文件估算单个容器运行过程中的最大负载信息Lmax和运行时间T;
S2、计算任务管理***初始化节点,然后通过节点负载预测***预测T时间内当前节点原始负载信息L,判断T时间内当前节点剩余资源是否满足需要,以及是否最大化资源利用,如果满足需要且最大化资源利用则加入可用节点列表,如果可用节点列表中已经有S个节点,将容器分发到可用节点上,结束部署;
S3、当T时间内当前节点剩余资源不满足需要或没有最大化资源利用或者可用节点列表中没有S个节点时,对节点号加1并返回步骤S2;
S4、如果已遍历所有节点,将容器分发到可用节点上,结束部署。
以上内容仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明权利要求书的保护范围之内。
Claims (8)
1.一种基于负载预测的边缘计算平台容器部署***,其特征在于,包括:
多个计算节点和一个中心节点,每个计算节点上存在一个边缘计算平台分发的任务之外的长期运行的任务,称之为原始任务,其负载称为原始负载,中心节点是专用的;
每个计算节点上搭载一个原始负载监测***,每个原始负载监测***分别于节点负载预测***连接,用于收集节点原始任务的资源占用情况,并通过节点负载预测***上传至中心服务器,用于预测模型训练及节点负载预测;
中心节点上搭载了节点负载预测***和计算任务管理***,节点负载预测***上设置有对应各计算节点的LSTM模型,节点负载预测***接收节点原始负载信息并将预测的结果发送至计算任务管理***;
计算任务管理***负责容器的部署,计算任务管理***根据接收的信息反馈节点号、任务时间给节点负载预测***,并下发容器到可用的计算节点。
2.根据权利要求1所述的***,其特征在于,原始负载监测***在未有计算任务运行的每一个节点上运行一个原始负载信息收集守护进程,原始负载信息收集守护进程每5分钟收集一次节点的原始负载信息,构成一条4维的原始负载向量L(t)=(φ1,φ2,φ3,φ4),存入数据库中,在未有计算任务运行的每一个节点上运行一个原始负载信息上传守护进程,原始负载信息上传守护进程每60分钟将60分钟内的原始负载向量从数据库中读取并上传至中心服务器。
3.根据权利要求2所述的***,其特征在于,原始负载信息包括CPU使用率、GPU使用率、内存剩余容量和网络使用率。
4.根据权利要求1所述的***,其特征在于,LSTM模型的网络输入层为三维数据[samples,time_steps,features],Samples为训练样本数量;time_steps为时间步长,即每个数据与之前多少个时间点的输入数据有关;features为特征值,即负载向量L(t)。
5.根据权利要求4所述的***,其特征在于,使用R个原始负载信息预测k时间之后的原始负载信息;预测视野设为k,k为时间间隔s=5分钟的整数倍;f表示要求解的模型,L(t+k)表示t+k时刻节点的原始负载信息,预测行为如下:
L(t+k)=f(L(t-R+1),L(t-R+2),L,L(t-1),L(t))
其中,f函数的输入输出对即构成了需要的数据集的输入和输出;一条LSTM输入输出数据对为:
<(L(t-R+1),L(t-R+2),L,L(t-1),L(t)),L(t+k)>。
6.根据权利要求1所述的***,其特征在于,计算任务管理***用于负责容器的部署,当计算任务管理***接到一个任务后,根据任务输入规模将任务分割成适于在节点上运行的s份子任务,包装进s个容器中;估算出单个容器运行过程中最大负载信息L'max和运行时间T;然后通过各节点的LSTM模型预测接下来T时间内各节点的原始负载信息Li(t),设共有n个节点,当前时间为t1,则有0<i≤n,t1<t<t1+T;然后选出s个既能满足容器负载需求即L'max+Li(t)<1且最大化资源利用即max(L'max+Li(t))的节点,为可用节点;最后将s个容器分别部署至可用节点上运行,并在运行完成后获取子任务结果并合并成最终结果。
7.根据权利要求1至6中任一项所述基于负载预测的边缘计算平台容器部署***的工作方法,其特征在于,包括以下步骤:
S1、计算任务管理***将计算任务分割成S份子任务,分别包装进容器中,根据用户提交的任务配置文件估算单个容器运行过程中的最大负载信息Lmax和运行时间T;
S2、计算任务管理***初始化节点,然后通过节点负载预测***预测T时间内当前节点原始负载信息L,判断T时间内当前节点剩余资源是否满足需要,以及是否最大化资源利用,然后如果满足需要且最大化资源利用则加入可用节点列表;
S3、当T时间内当前节点剩余资源不满足需要或没有最大化资源利用或者可用节点列表中没有S个节点时,对节点号加1并返回步骤S2;
S4、如果已遍历所有节点,将容器分发到可用节点上,结束部署。
8.根据权利要求7所述的基于负载预测的边缘计算平台容器部署方法及***,其特征在于,步骤S2中,如果可用节点列表中是否已经有S个节点,将容器分发到可用节点上,结束部署。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910420328.1A CN110231976B (zh) | 2019-05-20 | 2019-05-20 | 一种基于负载预测的边缘计算平台容器部署方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910420328.1A CN110231976B (zh) | 2019-05-20 | 2019-05-20 | 一种基于负载预测的边缘计算平台容器部署方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110231976A true CN110231976A (zh) | 2019-09-13 |
CN110231976B CN110231976B (zh) | 2021-04-20 |
Family
ID=67861431
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910420328.1A Active CN110231976B (zh) | 2019-05-20 | 2019-05-20 | 一种基于负载预测的边缘计算平台容器部署方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110231976B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110618870A (zh) * | 2019-09-20 | 2019-12-27 | 广东浪潮大数据研究有限公司 | 一种深度学习训练任务的工作方法及装置 |
CN111459617A (zh) * | 2020-04-03 | 2020-07-28 | 南方电网科学研究院有限责任公司 | 基于云平台的容器化应用自动分配优化***及其方法 |
CN111488213A (zh) * | 2020-04-16 | 2020-08-04 | 中国工商银行股份有限公司 | 容器部署方法及装置、电子设备和计算机可读存储介质 |
CN112969157A (zh) * | 2021-02-22 | 2021-06-15 | 重庆邮电大学 | 一种无人机网络负载均衡方法 |
CN112995636A (zh) * | 2021-03-09 | 2021-06-18 | 浙江大学 | 基于边缘计算和主动缓存的360度虚拟现实视频传输***及参数优化方法 |
WO2022067557A1 (zh) * | 2020-09-29 | 2022-04-07 | 西门子股份公司 | 边缘计算方案设计方法、装置和计算机可读介质 |
WO2022267724A1 (en) * | 2021-06-22 | 2022-12-29 | International Business Machines Corporation | Cognitive scheduler for kubernetes |
US11953972B2 (en) | 2022-04-06 | 2024-04-09 | International Business Machines Corporation | Selective privileged container augmentation |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11868812B2 (en) | 2021-08-12 | 2024-01-09 | International Business Machines Corporation | Predictive scaling of container orchestration platforms |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101860481A (zh) * | 2010-05-25 | 2010-10-13 | 北京邮电大学 | 一种MPLS-TP over OTN多层网络中区分优先级的业务传送方法及其装置 |
US20140095649A1 (en) * | 2011-02-07 | 2014-04-03 | Microsoft Corporation | Proxy-based cache content distribution and affinity |
CN106055379A (zh) * | 2015-04-09 | 2016-10-26 | 国际商业机器公司 | 用于调度计算任务的方法和*** |
CN106844051A (zh) * | 2017-01-19 | 2017-06-13 | 河海大学 | 一种边缘计算环境中功耗优化的负载任务迁移算法 |
CN108062561A (zh) * | 2017-12-05 | 2018-05-22 | 华南理工大学 | 一种基于长短时记忆网络模型的短时数据流预测方法 |
CN108170529A (zh) * | 2017-12-26 | 2018-06-15 | 北京工业大学 | 一种基于长短期记忆网络的云数据中心负载预测方法 |
CN108363478A (zh) * | 2018-01-09 | 2018-08-03 | 北京大学 | 针对可穿戴设备深度学习应用模型分载***及方法 |
CN108809723A (zh) * | 2018-06-14 | 2018-11-13 | 重庆邮电大学 | 一种边缘服务器联合任务卸载及卷积神经网络层调度方法 |
CN108809695A (zh) * | 2018-04-28 | 2018-11-13 | 国网浙江省电力有限公司电力科学研究院 | 一种面向移动边缘计算的分布上行链路卸载策略 |
-
2019
- 2019-05-20 CN CN201910420328.1A patent/CN110231976B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101860481A (zh) * | 2010-05-25 | 2010-10-13 | 北京邮电大学 | 一种MPLS-TP over OTN多层网络中区分优先级的业务传送方法及其装置 |
US20140095649A1 (en) * | 2011-02-07 | 2014-04-03 | Microsoft Corporation | Proxy-based cache content distribution and affinity |
CN106055379A (zh) * | 2015-04-09 | 2016-10-26 | 国际商业机器公司 | 用于调度计算任务的方法和*** |
CN106844051A (zh) * | 2017-01-19 | 2017-06-13 | 河海大学 | 一种边缘计算环境中功耗优化的负载任务迁移算法 |
CN108062561A (zh) * | 2017-12-05 | 2018-05-22 | 华南理工大学 | 一种基于长短时记忆网络模型的短时数据流预测方法 |
CN108170529A (zh) * | 2017-12-26 | 2018-06-15 | 北京工业大学 | 一种基于长短期记忆网络的云数据中心负载预测方法 |
CN108363478A (zh) * | 2018-01-09 | 2018-08-03 | 北京大学 | 针对可穿戴设备深度学习应用模型分载***及方法 |
CN108809695A (zh) * | 2018-04-28 | 2018-11-13 | 国网浙江省电力有限公司电力科学研究院 | 一种面向移动边缘计算的分布上行链路卸载策略 |
CN108809723A (zh) * | 2018-06-14 | 2018-11-13 | 重庆邮电大学 | 一种边缘服务器联合任务卸载及卷积神经网络层调度方法 |
Non-Patent Citations (2)
Title |
---|
LIPING ZHANG, QIUHUA TANG, ZHENGJIA WU, FANG WANG: "Mathematical modeling and evolutionary generation of rule sets for", 《ENERGY》 * |
冯鸣夏,伍卫国,邸德海: "基于负载感知和QoS的多中心作业调度算法", 《计算机技术与发展》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110618870B (zh) * | 2019-09-20 | 2021-11-19 | 广东浪潮大数据研究有限公司 | 一种深度学习训练任务的工作方法及装置 |
WO2021051713A1 (zh) * | 2019-09-20 | 2021-03-25 | 广东浪潮大数据研究有限公司 | 一种深度学习训练任务的工作方法及装置 |
CN110618870A (zh) * | 2019-09-20 | 2019-12-27 | 广东浪潮大数据研究有限公司 | 一种深度学习训练任务的工作方法及装置 |
CN111459617A (zh) * | 2020-04-03 | 2020-07-28 | 南方电网科学研究院有限责任公司 | 基于云平台的容器化应用自动分配优化***及其方法 |
CN111488213A (zh) * | 2020-04-16 | 2020-08-04 | 中国工商银行股份有限公司 | 容器部署方法及装置、电子设备和计算机可读存储介质 |
CN111488213B (zh) * | 2020-04-16 | 2024-04-02 | 中国工商银行股份有限公司 | 容器部署方法及装置、电子设备和计算机可读存储介质 |
WO2022067557A1 (zh) * | 2020-09-29 | 2022-04-07 | 西门子股份公司 | 边缘计算方案设计方法、装置和计算机可读介质 |
CN112969157A (zh) * | 2021-02-22 | 2021-06-15 | 重庆邮电大学 | 一种无人机网络负载均衡方法 |
CN112995636A (zh) * | 2021-03-09 | 2021-06-18 | 浙江大学 | 基于边缘计算和主动缓存的360度虚拟现实视频传输***及参数优化方法 |
CN112995636B (zh) * | 2021-03-09 | 2022-03-25 | 浙江大学 | 基于边缘计算和主动缓存的360度虚拟现实视频传输***及参数优化方法 |
WO2022267724A1 (en) * | 2021-06-22 | 2022-12-29 | International Business Machines Corporation | Cognitive scheduler for kubernetes |
US11928503B2 (en) | 2021-06-22 | 2024-03-12 | International Business Machines Corporation | Cognitive scheduler for Kubernetes |
US11953972B2 (en) | 2022-04-06 | 2024-04-09 | International Business Machines Corporation | Selective privileged container augmentation |
Also Published As
Publication number | Publication date |
---|---|
CN110231976B (zh) | 2021-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110231976A (zh) | 一种基于负载预测的边缘计算平台容器部署方法及*** | |
Luo et al. | Resource scheduling in edge computing: A survey | |
CN113282368B (zh) | 一种用于变电站巡视的边缘计算资源调度方法 | |
Shi et al. | Mean field game guided deep reinforcement learning for task placement in cooperative multiaccess edge computing | |
Li et al. | A new load balancing strategy by task allocation in edge computing based on intermediary nodes | |
CN108900358A (zh) | 基于深度信念网络资源需求预测的虚拟网络功能动态迁移方法 | |
Li et al. | Adaptive resource allocation based on the billing granularity in edge-cloud architecture | |
CN106502792A (zh) | 一种面向不同类型负载的多租户资源优化调度方法 | |
CN108664378A (zh) | 一种微服务最短执行时间的优化方法 | |
Shan et al. | “DRL+ FL”: An intelligent resource allocation model based on deep reinforcement learning for mobile edge computing | |
CN107404409A (zh) | 面向突变负载的容器云弹性供给容器数量预测方法与*** | |
CN106600058A (zh) | 一种制造云服务QoS的组合预测方法 | |
CN109831522A (zh) | 一种基于smdp的车联云雾***动态资源优化管理***和方法 | |
CN110209467B (zh) | 一种基于机器学习的弹性资源扩展方法和*** | |
CN105491329B (zh) | 一种基于流式计算的大规模监控视频流汇聚方法 | |
CN113098711A (zh) | 一种基于云边协同的配电物联网cps管控方法及*** | |
CN106775949A (zh) | 一种感知复合应用特征与网络带宽的虚拟机在线迁移优化方法 | |
Ruan et al. | A big data placement method using NSGA-III in meteorological cloud platform | |
CN107395704B (zh) | 一种Spark云计算平台下的结构物理参数辨识方法 | |
Cui et al. | Multiagent reinforcement learning-based cooperative multitype task offloading strategy for internet of vehicles in B5G/6G network | |
CN108319501B (zh) | 一种基于微服务网关的弹性资源供给方法及*** | |
Tang et al. | Multi-user layer-aware online container migration in edge-assisted vehicular networks | |
Liu et al. | Surface roughness prediction method of titanium alloy milling based on CDH platform | |
CN106844175B (zh) | 一种基于机器学***台容量规划方法 | |
Zhang et al. | An approximation of the customer waiting time for online restaurants owning delivery system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |