CN110418416A - 移动边缘计算***中基于多智能体强化学习的资源分配方法 - Google Patents
移动边缘计算***中基于多智能体强化学习的资源分配方法 Download PDFInfo
- Publication number
- CN110418416A CN110418416A CN201910680954.4A CN201910680954A CN110418416A CN 110418416 A CN110418416 A CN 110418416A CN 201910680954 A CN201910680954 A CN 201910680954A CN 110418416 A CN110418416 A CN 110418416A
- Authority
- CN
- China
- Prior art keywords
- user
- action
- function
- cost
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000013016 learning Effects 0.000 title claims abstract description 49
- 238000000034 method Methods 0.000 title claims abstract description 23
- 238000004364 calculation method Methods 0.000 title claims abstract description 17
- 238000013468 resource allocation Methods 0.000 title claims abstract description 15
- 230000006870 function Effects 0.000 claims abstract description 56
- 230000009471 action Effects 0.000 claims abstract description 54
- 238000005265 energy consumption Methods 0.000 claims abstract description 13
- 239000003795 chemical substances by application Substances 0.000 claims description 45
- 230000002787 reinforcement Effects 0.000 claims description 24
- 230000005540 biological transmission Effects 0.000 claims description 6
- 239000000969 carrier Substances 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 230000000875 corresponding effect Effects 0.000 claims description 3
- 230000005484 gravity Effects 0.000 claims description 3
- 230000007774 longterm Effects 0.000 claims description 3
- 230000006872 improvement Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W72/00—Local resource management
- H04W72/04—Wireless resource allocation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本发明公开了移动边缘计算***中基于多智能体强化学习的资源分配方法,包括:(1)将无线信道划分成若干个子载波,每个用户仅仅可以选择一个子载波;(2)每个用户随机选择信道以及计算资源,然后计算用户卸载产生的时延和能耗;(3)将用户在本地计算产生的时延能耗和卸载到边缘云的进行对比,判断卸载是否成功;(4)通过多智能体强化学习得到当前卸载动作的奖励值,并计算价值函数;(5)用户根据策略函数进行动作选择;(6)改变用户的学习速率进行策略更新,得到最优动作集合。本发明基于可变速率的多智能体强化学习,充分利用移动边缘服务器的计算资源和无线资源,在考虑了用户卸载的必要性的同时,得到各智能终端效用函数的最大值。
Description
技术领域
本发明涉及移动边缘计算技术,尤其涉及一种移动边缘云计算***(Mobile EdgeComputing,MEC)中基于多智能体强化学习的资源分配方法。
背景技术
随着互联网的发展,移动智能终端越来越普及,它所具备的功能也越来越强大,人脸识别,图像识别,增强现实等新的应用不断涌现。然而,这些新兴应用程序需要移动设备具备一定的计算资源,存储资源和电池容量有限,并且对延时有着高要求,因此,需要高性能的计算设备代替智能终端完成计算任务。移动云计算(MCC,Mobile Cloud Computing)可以较好的满足其需求。
自2005年左右提出以来,云计算已经极大地改变了人们的学习、工作以及生活方式。移动云计算作为云计算的一个延伸,采用移动终端设备取代传统的PC机,一方面终端设备不再是固定不动的,而具备了移动性,另一方面,终端设备也具有了一定的感知能力、存储能力。移动云计算是移动互联网技术和云计算技术自然结合的产物,基于异构无线通信网络基础设施,并拥有共享的云资源池,向移动终端设备提供计算、存储等网络资源,提供云服务,终端无需使用的自己的计算以及存储资源,可以有效地解决其资源受限问题,是提升用户QoE的有效途径。然而,云计算也面临着新的挑战,用户在使用移动应用时与数据中心要发生数据交互,根据用户与云数据中心的相对位置,网络延迟对一些延迟敏感类的应用影响很大,比如实时网络游戏、视频通信等;另一方面,由于所有应用产生的数据交互都要用过核心网进行,在网络高峰期核心网会有很大的压力。作为一个新概念,移动边缘计算可以应对上述云计算的问题。
MEC的核心思想是将移动云计算中数据中心的一部分计算、存储能力下放到边缘网络,即靠近用户的位置。从而移动应用产生的数据处理需求只需要通过其本地网络边缘的MEC服务器进行处理并返回结果,无需通过核心网和数据中心进行。
由于MEC服务器的计算、存储、带宽等资源有限,MEC服务器上的资源分配问题成为一个随之而来的新的挑战。为了减少网络中的延迟,以及更好地利用MEC服务器有限的资源,合理地设计MEC服务器中的服务分配问题是十分必要的。强化学习算法通过与环境相互作用,反复试验改进误差来获取最优解,并且只需要较少的先验知识,因此,本发明采用强化学习算法解决资源分配问题。
发明内容
本发明的目的是针对现有技术存在的问题,提供一种移动边缘计算***中基于多智能体强化学习的资源分配方法,本方法基于多智能体强化学习,充分利用边缘服务器的计算资源和无线资源,在满足终端任务卸载是有必要的前提下,最大化终端用户的效用函数。
为达到上述目的,本发明采用的方法是:一种移动边缘计算***中基于多智能体强化学习的资源分配方法,包括以下步骤:
(1)移动边缘云计算***MEC环境下将无线信道划分成K个子载波,假设每个子载波之间是正交的,选择不同子载波的用户之间互不干扰,并且每个用户只能选择一个子信道;
(2)移动边缘云计算***MEC中的终端随机选择子信道以及云服务器中计算资源,并建立终端的任务卸载开销函数;其中该任务卸载开销函数包含能耗开销和时延开销,能耗开销是终端进行任务卸载时消耗的能量,时延开销是终端进行任务卸载过程中上传到服务器的时延以及计算的时延;
(3)计算用户在本地计算产生的开销,其中该开销函数包括本地计算所需要的时延开销和本地计算所产生的能量开销;将本地开销和卸载到云服务器的开销进行对比,由此来判断本次卸载是否有必要性,只有当卸载的开销小于本地计算开销时本次卸载才算是成功的;
(4)通过多智能体强化学习算法,计算当前智能体在无线资源和计算资源选择后的奖励值,然后计算当前状态下的动作价值函数;
(5)用户采取策略ε-贪心(ε-greedy)重新选择无线资源和计算资源,每当智能体进行一次动作选择后,该智能体的动作价值函数就会变化,总体上时向着动作价值函数更大的方向进行动作选择;
(6)通过当前策略的预期价值和平均策略价值进行比较,改变用户的学习速率,进行策略更新,从而得到最优动作集合,即各个终端获得的边缘云服务器的计算资源和无线资源。
作为本发明的一种改进,步骤(2)中所述的能耗开销和时延开销,可以对能耗开销和时延开销占据的比例进行动态调节,两者影响因子之和为1;
作为本发明的一种改进,步骤(4)中多智能体强化学习的描述具体如下:
状态空间:每个智能体的状态空间可以用用户的满意度来表示,s(t)={s1(t),s2(t),...,sN(t)},其中si(t)={0,1},当si(t)=0时,表示用户的卸载开销太高,超过了本地计算的情况,本次卸载是没必要的;相反,若是si(t)=1,则表示开销合理,本次卸载是合理的;
动作空间:每个用户选择计算和无线资源,所以动作空间可以表示为ai(t)={bi(t),ci(t)},其中ci(t)是计算资源,bi(t)是无线资源;
奖励:用户在每一个状态si(t)时采取动作ai(t)后会得到一个奖励ri(t),我们可以采取用户的效用函数ui(t)作为奖励:
上式的第一项表示边缘网络中下行链路为移动用户提供的数据传输速率,第二项为用户将任务卸载至云端网络产生的总开销ρi,υi为每一项指标的比重系数。但是,当用户的卸载开销比本地开销还要的情况下,奖励将为一个小于0的惩罚值;
值函数:每个用户都会朝着自己的最优目标选择相应的动作,强化学习往往具有延迟回报的特点,因此定义在某种策略情况下的一个函数来表明当前的状态下所作的策略对长远的影响,也就是用它来衡量该状态的好坏程度,这个函数被称为值函数:
动作价值函数:将值函数拆解为各个动作相关的表示,就可以得到动作价值函数:
式中代表智能体在状态s选择动作a的奖励值,p(s,s')代表在状态s转移到状态s'的概率,π(a|s')代表智能体在状态s'选择动作的策略。
作为本发明的一种改进,步骤(5)中所述的ε-贪心(ε-greedy)策略表示,ε是一个很小的值,作为选取随机动作的概率值,1-ε作为选取最优动作的概率值。
作为本发明的一种改进,步骤(6)中改变学习速率更新策略,其过程如下:
对于一个已知的智能体,它会在状态sk过度到sk+1,并且具有奖励函数r的情况下执行探索动作ak,它的平均估计策略更新可以表示为:
其中,C(s)表示状态s的出现次数,策略更新可以表示为:
用于更新策略的学***均策略的当前期望值来确定的。如果当前的策略的期望是较小的,那么使用大的学习速率δlose,否则使用δwin,δ表示当前选择的学习速率。
有益效果:
本发明与现有技术相比,其显著优点是:本发明将无线和计算资源进行联合分配,通过增加吞吐量和降低每个用户的成本,使其效用最大化,此外,还考虑了卸载的必要性。本发明采用多智能体强化学习方法,通过多智能体并行处理,减少学习时间,加快学习速度,获得最优学习策略。学习速率根据当前策略的期望而变化,每个智能体只需要维护自己的动作价值函数,减轻算法的复杂度。
附图说明
图1是本发明的移动边缘计算环境下的***场景图;
图2是本发明的基于可变学习速率强化学习算法资源分配方法流程图。
具体实施方式
本发明基于多智能体强化学习,充分利用移动边缘云服务器中有限的计算资源,在满足终端任务卸载是有必要的前提下,最大化终端用户的效用函数。下面结合附图对本发明的实施方法作进一步的描述。
如图1所示,考虑移动边缘***中总共有N个用户移动终端,用户集合可以表示为N={1,2,3,…,N},每个用户都有计算密集型任务需要卸载到云服务器上,将无线信道分为K个子载波,设置无线信道集K={1,2,3,…,K},当第n个用户选择了第k个信道时,反之多个用户可以同时选择同一个信道,但是一个用户一次只可以选择一个信道,即
由于许多用户共享了同一个信道,所以我们需要考虑到信道干扰,每个用户移通过无线信道将计算任务转移到云服务器上时的上行数据速率为:
ω表示信道带宽,pn表示用户n的传输功率,σ0表示噪声功率,gn,s表示用户n和基站s之间的信道增益,其中ln,s表示用户n和基站s之间的距离,α表示路径损耗因子。
每个用户移动设备的任务用Jn={bn,dn}表示,bn表示计算任务输入数据的大小(包括任务代码和输入参数),dn表示为了完成任务Jn所需要的CPU周数。为了将任务卸载到云服务器上,需要额外的无线传输时间这段时间产生的能耗可以表示为用户n的任务执行时间可以表示为因此,可以得到,用户n的总开销可以表示为:
每个用户的效用函数应跟数据传输速率以及资源开销有关。所以第n个用户的效用函数可以表示为
上式的第一项表示边缘网络中下行链路为移动用户提供的数据传输速率,第二项为用户将任务卸载至云端网络产生的总开销,ρi,υi为每一项指标的比重系数。
如图2所示,本发明的移动边缘计算***中基于多智能体强化学习的资源分配方法具体包括:
(1)移动边缘云计算***MEC环境下将无线信道划分成K个子载波,假设每个子载波之间是正交的,选择不同子载波的用户之间互不干扰,并且每个用户只能选择一个子信道;
(2)移动边缘云计算***MEC中的终端随机选择子信道以及云服务器中计算资源,并建立终端的任务卸载开销函数;其中该任务卸载开销函数包含能耗开销和时延开销,能耗开销是终端进行任务卸载时消耗的能量,时延开销是终端进行任务卸载过程中上传到服务器的时延以及计算的时延;
(3)计算用户在本地计算产生的开销,其中该开销函数包括本地计算所需要的时延开销和本地计算所产生的能量开销;将本地开销和卸载到云服务器的开销进行对比,由此来判断本次卸载是否有必要性,只有当卸载的开销小于本地计算开销时本次卸载才算是成功的;
(4)通过多智能体强化学习算法,计算当前智能体在无线资源和计算资源选择后的奖励值,然后计算当前状态下的动作价值函数;
(5)用户采取策略ε-贪心(ε-greedy)重新选择无线资源和计算资源,每当智能体进行一次动作选择后,该智能体的动作价值函数就会变化,总体上时向着动作价值函数更大的方向进行动作选择;
(6)通过当前策略的预期价值和平均策略价值进行比较,改变用户的学习速率,进行策略更新,从而得到最优动作集合,即各个终端获得的边缘云服务器的计算资源和无线资源。
其中,步骤(3)中本地计算产生的开销可以表示为:
步骤(4)中多智能体强化学习可以表示为:
状态空间:每个智能体的状态空间可以用用户的满意度来表示,s(t)={s1(t),s2(t),...,sN(t)},其中si(t)={0,1},当si(t)=0时,表示用户的卸载开销太高,超过了本地计算的情况,本次卸载是没必要的;相反,若是si(t)=1,则表示开销合理,本次卸载是合理的;
动作空间:每个用户选择计算和无线资源,所以动作空间可以表示为ai(t)={bi(t),ci(t)},其中ci(t)是计算资源,bi(t)是无线资源;
奖励:用户在每一个状态si(t)时采取动作ai(t)后会得到一个奖励ri(t),我们可以采取用户的效用函数ui(t)作为奖励,ri(t)=ui(t),但是,当用户的卸载开销比本地开销还要的情况下,奖励将为一个小于0的惩罚值。
值函数:每个用户都会朝着自己的最优目标选择相应的动作,强化学习往往具有延迟回报的特点,因此定义在某种策略情况下的一个函数来表明当前的状态下所作的策略对长远的影响,也就是用它来衡量该状态的好坏程度,这个函数被称为值函数:
动作价值函数:将值函数拆解为各个动作相关的表示,就可以得到动作价值函数:
式中代表智能体在状态s选择动作a的奖励值,p(s,s')代表在状态s转移到状态s'的概率,π(a|s')代表智能体在状态s'选择动作的策略。
步骤(5)中所述的ε-贪心(ε-greedy)策略表示,ε是一个很小的值,作为选取随机动作的概率值,1-ε作为选取最优动作的概率值。
步骤(6)中改变学习速率更新策略,其过程如下:
对于一个已知的智能体,它会在状态sk过度到sk+1,并且具有奖励函数r的情况下执行探索动作ak,它的平均估计策略更新可以表示为:
其中,C(s)表示状态s的出现次数,策略更新可以表示为:
其中,
用于更新策略的学***均策略的当前期望值来确定的。如果当前的策略的期望是较小的,那么使用大的学习速率δlose,否则使用δwin。
Claims (5)
1.一种移动边缘计算***中基于多智能体强化学习的资源分配方法,其特征在于包括如下步骤:
(1)移动边缘云计算***环境下将无线信道划分成K个子载波,假设每个子载波之间是正交的,选择不同子载波的用户之间互不干扰,并且每个用户只能选择一个子信道;
(2)移动边缘云计算***中的终端随机选择子信道以及云服务器中计算资源,并建立终端的任务卸载开销函数;其中该任务卸载开销函数包含能耗开销和时延开销,能耗开销是终端进行任务卸载时消耗的能量,时延开销是终端进行任务卸载过程中上传到服务器的时延以及计算的时延;
(3)计算用户在本地计算产生的开销,其中该开销函数包括本地计算所需要的时延开销和本地计算所产生的能量开销;将本地开销和卸载到云服务器的开销进行对比,由此来判断本次卸载是否有必要性,只有当卸载的开销小于本地计算开销时本次卸载才算是成功的;
(4)通过多智能体强化学习算法,计算当前智能体在无线资源和计算资源选择后的奖励值,然后计算当前状态下的动作价值函数;
(5)用户采取策略ε-贪心重新选择无线资源和计算资源,每当智能体进行一次动作选择后,该智能体的动作价值函数就会变化,总体上时向着动作价值函数更大的方向进行动作选择;
(6)通过当前策略的预期价值和平均策略价值进行比较,改变用户的学习速率,进行策略更新,从而得到最优动作集合,即各个终端获得的边缘云服务器的计算资源和无线资源。
2.根据权利要求1所述的移动边缘计算***中基于多智能体强化学习的资源分配方法,其特征在于:步骤(2)中所述的能耗开销和时延开销,可以对能耗开销和时延开销占据的比例进行动态调节,两者影响因子之和为1。
3.根据权利要求1所述的移动边缘计算***中基于多智能体强化学习的资源分配方法,其特征在于:步骤(4)中多智能体强化学习的描述具体如下:
状态空间:每个智能体的状态空间可以用用户的满意度来表示,s(t)={s1(t),s2(t),...,sN(t)},其中si(t)={0,1},当si(t)=0时,表示用户的卸载开销太高,超过了本地计算的情况,本次卸载是没必要的;相反,若是si(t)=1,则表示开销合理,本次卸载是合理的;
动作空间:每个用户选择计算和无线资源,所以动作空间可以表示为ai(t)={bi(t),ci(t)},其中ci(t)是计算资源,bi(t)是无线资源;
奖励:用户在每一个状态si(t)时采取动作ai(t)后会得到一个奖励ri(t),我们可以采取用户的效用函数ui(t)作为奖励:
上式的第一项表示边缘网络中下行链路为移动用户提供的数据传输速率,第二项为用户将任务卸载至云端网络产生的总开销ρi,υi为每一项指标的比重系数。但是,当用户的卸载开销比本地开销还要的情况下,奖励将为一个小于0的惩罚值;
值函数:每个用户都会朝着自己的最优目标选择相应的动作,强化学习往往具有延迟回报的特点,因此定义在某种策略情况下的一个函数来表明当前的状态下所作的策略对长远的影响,也就是用它来衡量该状态的好坏程度,这个函数被称为值函数:
动作价值函数:将值函数拆解为各个动作相关的表示,就可以得到动作价值函数:
式中代表智能体在状态s选择动作a的奖励值,p(s,s')代表在状态s转移到状态s'的概率,π(a|s')代表智能体在状态s'选择动作的策略。
4.根据权利要求1所述的移动边缘计算***中基于多智能体强化学习的资源分配方法,其特征在于:步骤(5)中所述的ε-贪心策略表示,ε是一个很小的值,作为选取随机动作的概率值,1-ε作为选取最优动作的概率值。
5.根据权利要求1所述的移动边缘计算***中基于多智能体强化学习的资源分配方法,其特征在于:步骤(6)中改变学习速率更新策略,其过程如下:
对于一个已知的智能体,它会在状态sk过度到sk+1,并且具有奖励函数r的情况下执行探索动作ak,它的平均估计策略更新可以表示为:
其中,C(s)表示状态s的出现次数,策略更新可以表示为:
用于更新策略的学***均策略的当前期望值来确定的,如果当前的策略的期望是较小的,那么使用大的学习速率δlose,否则使用δwin,δ表示当前选择的学习速率
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910680954.4A CN110418416B (zh) | 2019-07-26 | 2019-07-26 | 移动边缘计算***中基于多智能体强化学习的资源分配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910680954.4A CN110418416B (zh) | 2019-07-26 | 2019-07-26 | 移动边缘计算***中基于多智能体强化学习的资源分配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110418416A true CN110418416A (zh) | 2019-11-05 |
CN110418416B CN110418416B (zh) | 2023-04-18 |
Family
ID=68363378
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910680954.4A Active CN110418416B (zh) | 2019-07-26 | 2019-07-26 | 移动边缘计算***中基于多智能体强化学习的资源分配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110418416B (zh) |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111132191A (zh) * | 2019-12-12 | 2020-05-08 | 重庆邮电大学 | 移动边缘计算服务器联合任务卸载、缓存及资源分配方法 |
CN111200831A (zh) * | 2020-01-08 | 2020-05-26 | 中国科学院计算技术研究所 | 一种融合移动边缘计算的蜂窝网络计算卸载方法 |
CN111328107A (zh) * | 2020-01-20 | 2020-06-23 | 北京大学 | 多云异构移动边缘计算***架构和能量优化的设计方法 |
CN111405569A (zh) * | 2020-03-19 | 2020-07-10 | 三峡大学 | 基于深度强化学习的计算卸载和资源分配方法及装置 |
CN111414252A (zh) * | 2020-03-18 | 2020-07-14 | 重庆邮电大学 | 一种基于深度强化学习的任务卸载方法 |
CN111431941A (zh) * | 2020-05-13 | 2020-07-17 | 南京工业大学 | 一种基于移动边缘计算的实时视频码率自适应方法 |
CN111444009A (zh) * | 2019-11-15 | 2020-07-24 | 北京邮电大学 | 一种基于深度强化学习的资源分配方法及装置 |
CN111507601A (zh) * | 2020-04-12 | 2020-08-07 | 北京工业大学 | 基于深度强化学习与区块链共识的资源优化分配决策方法 |
CN111539863A (zh) * | 2020-03-26 | 2020-08-14 | 重庆特斯联智慧科技股份有限公司 | 一种基于多源任务线的智能城市运行的方法和*** |
CN111556572A (zh) * | 2020-04-21 | 2020-08-18 | 北京邮电大学 | 一种基于强化学习的频谱资源和计算资源联合分配方法 |
CN111586696A (zh) * | 2020-04-29 | 2020-08-25 | 重庆邮电大学 | 一种基于多智能体架构强化学习的资源分配及卸载决策方法 |
CN111756812A (zh) * | 2020-05-29 | 2020-10-09 | 华南理工大学 | 一种能耗感知的边云协同动态卸载调度方法 |
CN111918339A (zh) * | 2020-07-17 | 2020-11-10 | 西安交通大学 | 移动边缘网络中基于强化学习的ar任务卸载和资源分配方法 |
CN112000459A (zh) * | 2020-03-31 | 2020-11-27 | 华为技术有限公司 | 一种用于服务的扩缩容的方法及相关设备 |
CN112084019A (zh) * | 2020-08-12 | 2020-12-15 | 东南大学 | 基于模拟退火的异构mec计算平台中的计算卸载与资源分配方法 |
CN112101728A (zh) * | 2020-08-18 | 2020-12-18 | 华南理工大学 | 一种移动边缘计算***能源优化分配方法 |
CN112148464A (zh) * | 2020-10-30 | 2020-12-29 | 深圳供电局有限公司 | 一种移动边缘计算任务的卸载方法及*** |
CN112272390A (zh) * | 2020-10-20 | 2021-01-26 | 广州大学 | 基于物理层的任务卸载及带宽分配的处理方法和*** |
CN112288478A (zh) * | 2020-10-28 | 2021-01-29 | 中山大学 | 一种基于强化学习的边缘计算服务激励方法 |
CN112367353A (zh) * | 2020-10-08 | 2021-02-12 | 大连理工大学 | 基于多智能体强化学习的移动边缘计算卸载方法 |
CN112783662A (zh) * | 2021-02-18 | 2021-05-11 | 绍兴文理学院 | 集成区块链的传感边缘云任务卸载中cpu资源可信共享*** |
WO2021139537A1 (zh) * | 2020-01-08 | 2021-07-15 | 上海交通大学 | 一种工业物联网中基于功率控制和资源分配的任务卸载方法 |
CN113163479A (zh) * | 2021-02-05 | 2021-07-23 | 北京中电飞华通信有限公司 | 一种蜂窝物联网上行资源分配方法及电子设备 |
CN113254200A (zh) * | 2021-05-13 | 2021-08-13 | 中国联合网络通信集团有限公司 | 资源编排方法及智能体 |
CN113315806A (zh) * | 2021-04-14 | 2021-08-27 | 深圳大学 | 一种面向云网融合的多接入边缘计算架构 |
CN114800510A (zh) * | 2022-05-06 | 2022-07-29 | 武汉理工大学 | 考虑产品零件失效特征的工业机器人拆解序列规划方法 |
CN116866357A (zh) * | 2023-09-05 | 2023-10-10 | 广东奥飞数据科技股份有限公司 | 一种多云容器集群资源优化管理方法及*** |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108809695A (zh) * | 2018-04-28 | 2018-11-13 | 国网浙江省电力有限公司电力科学研究院 | 一种面向移动边缘计算的分布上行链路卸载策略 |
CN109951897A (zh) * | 2019-03-08 | 2019-06-28 | 东华大学 | 一种能耗与延迟约束下的mec卸载方法 |
-
2019
- 2019-07-26 CN CN201910680954.4A patent/CN110418416B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108809695A (zh) * | 2018-04-28 | 2018-11-13 | 国网浙江省电力有限公司电力科学研究院 | 一种面向移动边缘计算的分布上行链路卸载策略 |
CN109951897A (zh) * | 2019-03-08 | 2019-06-28 | 东华大学 | 一种能耗与延迟约束下的mec卸载方法 |
Cited By (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111444009B (zh) * | 2019-11-15 | 2022-10-14 | 北京邮电大学 | 一种基于深度强化学习的资源分配方法及装置 |
CN111444009A (zh) * | 2019-11-15 | 2020-07-24 | 北京邮电大学 | 一种基于深度强化学习的资源分配方法及装置 |
CN111132191B (zh) * | 2019-12-12 | 2022-04-01 | 重庆邮电大学 | 移动边缘计算服务器联合任务卸载、缓存及资源分配方法 |
CN111132191A (zh) * | 2019-12-12 | 2020-05-08 | 重庆邮电大学 | 移动边缘计算服务器联合任务卸载、缓存及资源分配方法 |
CN111200831A (zh) * | 2020-01-08 | 2020-05-26 | 中国科学院计算技术研究所 | 一种融合移动边缘计算的蜂窝网络计算卸载方法 |
WO2021139537A1 (zh) * | 2020-01-08 | 2021-07-15 | 上海交通大学 | 一种工业物联网中基于功率控制和资源分配的任务卸载方法 |
US11778018B2 (en) | 2020-01-08 | 2023-10-03 | Shanghai Jiao Tong University | Method for task offloading based on power control and resource allocation in industrial internet of things |
CN111328107B (zh) * | 2020-01-20 | 2021-06-18 | 北京大学 | 多云异构移动边缘计算***架构和能量优化的设计方法 |
CN111328107A (zh) * | 2020-01-20 | 2020-06-23 | 北京大学 | 多云异构移动边缘计算***架构和能量优化的设计方法 |
CN111414252A (zh) * | 2020-03-18 | 2020-07-14 | 重庆邮电大学 | 一种基于深度强化学习的任务卸载方法 |
CN111414252B (zh) * | 2020-03-18 | 2022-10-18 | 重庆邮电大学 | 一种基于深度强化学习的任务卸载方法 |
CN111405569A (zh) * | 2020-03-19 | 2020-07-10 | 三峡大学 | 基于深度强化学习的计算卸载和资源分配方法及装置 |
CN111539863A (zh) * | 2020-03-26 | 2020-08-14 | 重庆特斯联智慧科技股份有限公司 | 一种基于多源任务线的智能城市运行的方法和*** |
CN111539863B (zh) * | 2020-03-26 | 2021-03-19 | 光控特斯联(重庆)信息技术有限公司 | 一种基于多源任务线的智能城市运行的方法和*** |
CN112000459A (zh) * | 2020-03-31 | 2020-11-27 | 华为技术有限公司 | 一种用于服务的扩缩容的方法及相关设备 |
CN111507601A (zh) * | 2020-04-12 | 2020-08-07 | 北京工业大学 | 基于深度强化学习与区块链共识的资源优化分配决策方法 |
CN111507601B (zh) * | 2020-04-12 | 2022-06-07 | 北京工业大学 | 基于深度强化学习与区块链共识的资源优化分配决策方法 |
CN111556572A (zh) * | 2020-04-21 | 2020-08-18 | 北京邮电大学 | 一种基于强化学习的频谱资源和计算资源联合分配方法 |
CN111586696A (zh) * | 2020-04-29 | 2020-08-25 | 重庆邮电大学 | 一种基于多智能体架构强化学习的资源分配及卸载决策方法 |
CN111586696B (zh) * | 2020-04-29 | 2022-04-01 | 重庆邮电大学 | 一种基于多智能体架构强化学习的资源分配及卸载决策方法 |
CN111431941A (zh) * | 2020-05-13 | 2020-07-17 | 南京工业大学 | 一种基于移动边缘计算的实时视频码率自适应方法 |
CN111756812A (zh) * | 2020-05-29 | 2020-10-09 | 华南理工大学 | 一种能耗感知的边云协同动态卸载调度方法 |
CN111756812B (zh) * | 2020-05-29 | 2021-09-21 | 华南理工大学 | 一种能耗感知的边云协同动态卸载调度方法 |
CN111918339A (zh) * | 2020-07-17 | 2020-11-10 | 西安交通大学 | 移动边缘网络中基于强化学习的ar任务卸载和资源分配方法 |
CN111918339B (zh) * | 2020-07-17 | 2022-08-05 | 西安交通大学 | 移动边缘网络中基于强化学习的ar任务卸载和资源分配方法 |
CN112084019A (zh) * | 2020-08-12 | 2020-12-15 | 东南大学 | 基于模拟退火的异构mec计算平台中的计算卸载与资源分配方法 |
CN112084019B (zh) * | 2020-08-12 | 2022-05-10 | 东南大学 | 基于模拟退火的异构mec计算平台中的计算卸载与资源分配方法 |
CN112101728A (zh) * | 2020-08-18 | 2020-12-18 | 华南理工大学 | 一种移动边缘计算***能源优化分配方法 |
CN112367353A (zh) * | 2020-10-08 | 2021-02-12 | 大连理工大学 | 基于多智能体强化学习的移动边缘计算卸载方法 |
CN112367353B (zh) * | 2020-10-08 | 2021-11-05 | 大连理工大学 | 基于多智能体强化学习的移动边缘计算卸载方法 |
CN112272390A (zh) * | 2020-10-20 | 2021-01-26 | 广州大学 | 基于物理层的任务卸载及带宽分配的处理方法和*** |
CN112272390B (zh) * | 2020-10-20 | 2023-06-20 | 广州大学 | 基于物理层的任务卸载及带宽分配的处理方法和*** |
CN112288478A (zh) * | 2020-10-28 | 2021-01-29 | 中山大学 | 一种基于强化学习的边缘计算服务激励方法 |
CN112148464A (zh) * | 2020-10-30 | 2020-12-29 | 深圳供电局有限公司 | 一种移动边缘计算任务的卸载方法及*** |
CN112148464B (zh) * | 2020-10-30 | 2023-07-07 | 深圳供电局有限公司 | 一种移动边缘计算任务的卸载方法及*** |
CN113163479A (zh) * | 2021-02-05 | 2021-07-23 | 北京中电飞华通信有限公司 | 一种蜂窝物联网上行资源分配方法及电子设备 |
CN112783662A (zh) * | 2021-02-18 | 2021-05-11 | 绍兴文理学院 | 集成区块链的传感边缘云任务卸载中cpu资源可信共享*** |
CN113315806B (zh) * | 2021-04-14 | 2022-09-27 | 深圳大学 | 一种面向云网融合的多接入边缘计算架构 |
CN113315806A (zh) * | 2021-04-14 | 2021-08-27 | 深圳大学 | 一种面向云网融合的多接入边缘计算架构 |
CN113254200B (zh) * | 2021-05-13 | 2023-06-09 | 中国联合网络通信集团有限公司 | 资源编排方法及智能体 |
CN113254200A (zh) * | 2021-05-13 | 2021-08-13 | 中国联合网络通信集团有限公司 | 资源编排方法及智能体 |
CN114800510A (zh) * | 2022-05-06 | 2022-07-29 | 武汉理工大学 | 考虑产品零件失效特征的工业机器人拆解序列规划方法 |
CN114800510B (zh) * | 2022-05-06 | 2024-01-23 | 武汉理工大学 | 考虑产品零件失效特征的工业机器人拆解序列规划方法 |
CN116866357A (zh) * | 2023-09-05 | 2023-10-10 | 广东奥飞数据科技股份有限公司 | 一种多云容器集群资源优化管理方法及*** |
CN116866357B (zh) * | 2023-09-05 | 2023-11-07 | 广东奥飞数据科技股份有限公司 | 一种多云容器集群资源优化管理方法及*** |
Also Published As
Publication number | Publication date |
---|---|
CN110418416B (zh) | 2023-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110418416B (zh) | 移动边缘计算***中基于多智能体强化学习的资源分配方法 | |
CN110377353B (zh) | 计算任务卸载***与方法 | |
CN112492626B (zh) | 一种移动用户计算任务的卸载方法 | |
CN111414252B (zh) | 一种基于深度强化学习的任务卸载方法 | |
CN109343904B (zh) | 一种基于Lyapunov优化的雾计算动态卸载方法 | |
CN113612843A (zh) | 一种基于深度强化学习的mec任务卸载和资源分配方法 | |
CN109151864B (zh) | 一种面向移动边缘计算超密集网络的迁移决策与资源优化分配方法 | |
CN110096362B (zh) | 一种基于边缘服务器协作的多任务卸载方法 | |
Xie et al. | Dynamic computation offloading in IoT fog systems with imperfect channel-state information: A POMDP approach | |
CN111132191A (zh) | 移动边缘计算服务器联合任务卸载、缓存及资源分配方法 | |
CN113543342B (zh) | 基于noma-mec强化学习资源分配与任务卸载方法 | |
CN111565380B (zh) | 车联网中基于noma-mec混合卸载方法 | |
CN114697333B (zh) | 一种能量队列均衡的边缘计算方法 | |
Fragkos et al. | Artificial intelligence enabled distributed edge computing for Internet of Things applications | |
CN114390057A (zh) | Mec环境下基于强化学习的多接口自适应数据卸载方法 | |
CN113364630A (zh) | 一种服务质量QoS差异化优化方法、装置 | |
CN114205353B (zh) | 一种基于混合动作空间强化学习算法的计算卸载方法 | |
Wang et al. | Multi-agent reinforcement learning-based user pairing in multi-carrier NOMA systems | |
CN111511028A (zh) | 一种多用户资源分配方法、装置、***及存储介质 | |
CN110780986B (zh) | 一种基于移动边缘计算的物联网任务调度方法及*** | |
Chen et al. | When learning joins edge: Real-time proportional computation offloading via deep reinforcement learning | |
Di Pietro et al. | An optimal low-complexity policy for cache-aided computation offloading | |
KR102391956B1 (ko) | 비직교 다중접속(noma) 방식을 지원하는 다중접속 에지 컴퓨팅(mec)에서 컴퓨팅 오프로딩 최적화를 위한 연합 방법 | |
CN117354934A (zh) | 一种多时隙mec***双时间尺度任务卸载和资源分配方法 | |
CN112770398A (zh) | 一种基于卷积神经网络的远端射频端功率控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |