CN107708135B - 一种适用于移动边缘计算场景的资源分配方法 - Google Patents
一种适用于移动边缘计算场景的资源分配方法 Download PDFInfo
- Publication number
- CN107708135B CN107708135B CN201710600370.2A CN201710600370A CN107708135B CN 107708135 B CN107708135 B CN 107708135B CN 201710600370 A CN201710600370 A CN 201710600370A CN 107708135 B CN107708135 B CN 107708135B
- Authority
- CN
- China
- Prior art keywords
- task
- base station
- calculation result
- time
- uploading
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
- H04W24/02—Arrangements for optimising operational condition
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本发明涉及一种适用于移动边缘计算场景的资源分配方法,该方法基于任务缓存和传输优化机制实现最优任务缓存和上传下载时间分配以及低复杂度次优任务缓存和上传下载时间分配,当移动设备待执行的任务的计算结果已被基站缓存时,移动设备从基站端下载该任务的计算结果,否则,移动设备将该任务上传至基站进行计算,然后从基站下载该任务的计算结果,当多个移动设备上传同一任务至基站时,基站选择信道最好的移动设备实现上传,当多个移动设备下载同一任务的计算结果时,基站用多播的方式发送一次该任务的计算结果,并使信道最差的移动设备恰好成功接收所述计算结果。与现有技术相比,本发明联合优化缓存和上传下载时间,具有节能等优点。
Description
技术领域
本发明涉及无线通信技术的移动边缘计算领域,尤其是涉及一种适用于移动边缘计算场景的资源分配方法。
背景技术
未来,很多计算密集型和延迟敏感型任务都需要在移动设备上运行,这些任务有巨大的运算量并且需要在很短的时间内完成,如虚拟现实、增强现实、实时在线游戏、实时监控、导航和超高清(UHD)视频流等。而移动设备由于资源有限,不能在很短的时间内执行完任务,且移动设备电量有限,过大的能量消耗使移动设备的待机时间更短。移动边缘计算是满足未来计算密集型和延迟敏感型任务需求的一项关键技术。移动边缘计算又称“雾计算”,它将云所具备的资源移到更接近用户的无线网络边缘(如基站和无线接入点),其中“云”指数据中心、IP骨干网络和蜂窝核心网络等提供资源的网络。移动边缘计算使移动用户能够在较近的无线接入网边缘得到IT和云计算服务,可降低服务的延迟,提升用户体验质量。
在移动边缘计算***中,当用户们发出的任务请求在空间域中高度集中并且在时间域中异步或同步地重复时,将计算结果存储在更靠近用户的地方(例如基站)以便在未来重复利用,可以大大减少移动设备的计算负载和延迟。Al-Shuwaili和O.Simeone在文章“Optimal resource allocation for mobile edge computing-based augmentedreality applications”中提出了一个资源分配方案,这个方案允许用户共享计算结果,并在延时和功率约束下最小化卸载所产生的总的移动能量消耗。然而,这篇文章仅仅关注了一项计算任务,而且没有考虑缓存计算结果以备将来重复使用。T.X.Tran,P.Pandey,A.Hajisami和D.Pompili在文章“Collaborative multi-bitrate video caching andprocessing in mobile-edge computing networks”中提出了在多用户移动边缘计算***中的协作多比特率视频缓存和处理,从而最小化回程负载,但没有考虑任务执行和计算结果下载的能量损耗。因此,考虑多项任务请求,联合优化缓存和上传下载时间来设计节能的缓存辅助型移动边缘计算***是需要进一步研究的问题。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种适用于移动边缘计算场景的资源分配方法,在多任务请求的移动边缘***中联合优化通信、缓存和计算资源从而达到节能目的,可设计节能的缓存辅助型移动边缘计算***。
本发明的目的可以通过以下技术方案来实现:
一种适用于移动边缘计算场景的资源分配方法,该方法基于任务缓存和传输优化机制实现最优任务缓存和上传下载时间的资源分配或低复杂度次优任务缓存和上传下载时间的资源分配;
所述任务缓存和传输优化机制为:
当移动设备待执行的任务的计算结果已被基站缓存时,移动设备从基站端下载该任务的计算结果,当移动设备待执行的任务的计算结果未被基站缓存时,移动设备将该任务上传至基站进行计算,然后从基站下载该任务的计算结果,其中,当多个移动设备上传同一任务至基站时,基站选择信道最好的移动设备实现上传,当多个移动设备下载同一任务的计算结果时,基站用多播的方式发送一次该任务的计算结果,并使得信道最差的移动设备恰好成功接收所述计算结果。
基于任务缓存和传输优化机制实现最优任务缓存和上传下载时间的资源分配具体为:
构建时延保障下的***平均总能耗最小化问题,求解获得最优分配方案。
所述最优任务缓存和上传下载时间的资源分配具体包括以下步骤:
A1)构建时延保障下的***平均总能耗最小化问题:
其中,E(c,Tu(X,H),Td(X,H),X,H)为***总能量消耗,cn表示任务n的计算结果在基站的缓存情况,cn=1表示任务n的计算结果在基站被缓存,cn=0表示表示任务n的计算结果未被基站缓存,表示***中任务的集合,X表示随机的***任务状态,H表示随机的***信道状态,Tu(X,H)和Td(X,H)分别代表***状态(X,H)下的各任务上传时间向量Tu和各任务下载时间向量Td,Ld,n为任务n计算结果的大小,Ld,n>0,C为基站缓存容量,tu,n为任务n的上传时间,td,n为任务n的下载时间,T为上传下载的总时间限制;
A2)构建拉格朗日松弛问题:
其中,L(c,Tu,Td,λ)为时延保障下的***平均总能耗最小化问题的拉格朗日函数,λ为拉格朗日因子;
A3)构建时延保障下的***平均总能耗最小化问题的对偶问题:
A4)迭代求解所述对偶问题,获得最优分配方案。
步骤A1)中,所述***总能量消耗定义为:
其中,Eu,n(tu,n,X,H)表示在***状态为(X,H)时,移动设备以上传时间tu,n将任务n上传到基站的传输能量损耗,Ee,n(X)表示在基站执行任务n、获得其计算结果的能量消耗,Ed,n(td,n,X,H)表示基站以下载时间td,n发送计算结果所需要的传输能量。
所述Eu,n(tu,n,X,H)定义为
其中,Hu,n为所有具有待执行任务n的移动设备与基站之间信道功率的最大值,Lu,n指任务n输入的大小,Lu,n>0,Kn(X)为具有待执行任务n的移动设备的总数,函数g(·)定义为:B为带宽,n0为高斯白噪声的方差。
所述Ed,n(td,n,X,H)定义为
所述Ee,n(X)的定义为
其中,Fb为基站频率,μ为由服务器的开关电容决定的常数因子,Le,n为任务n的工作负载,即执行任务n所需要的CPU周期数,Kn(X)为具有待执行任务n的移动设备的总数。
步骤A4)具体为:
A402)求解λt下的拉格朗日松弛问题:
其中,e1,n(X,H,λ)由下式定义:
e1,n(X,H,λ)=p(X,H)(Eu,n(f(X,H,Lu,n,Hu,n,λ),X,H)+Ee,n(X))+λf(X,H,Lu,n,Hu,n,λ)
其中,p(X,H)表示***状态(X,H)出现的概率,f(X,H,Lu,n,Hu,n,λ)由下式定义:
其中,W(·)是朗伯函数,Kn(X)为具有待执行任务n的移动设备的总数,B为带宽,n0为高斯白噪声的方差;
A403)计算g(λt)的次梯度:
更新λt+1(X,H)=max{λt(X,H)+αts(X,H,λt),0},其中αt=(1+m)/(t+m),m是非负常数;
基于任务缓存和传输优化机制实现低复杂度次优任务缓存和上传下载时间的资源分配具体为:
假定基站不缓存所有待执行任务的结果,得到上传下载时间分配的最优解后重新优化任务缓存分配,在得到一近似任务缓存方案后,根据该近似任务缓存方案重新优化上传下载时间分配方案。
所述低复杂度次优任务缓存和上传下载时间的资源分配包括以下步骤:
其中,En(0,tu,n,td,n,X,H)表示对于任务n的***能量消耗,tu,n为将任务n上传到基站的上传时间,td,n为基站发送任务n的计算结果的下载时间,X表示随机的***任务状态,H表示随机的***信道状态,表示***中任务的集合,T为上传下载的总时间限制;
其中,f(X,H,Lu,n,Hu,n,λ)由下式定义:
其中,p(X,H)表示***状态(X,H)出现的概率,W(·)是朗伯函数,Kn(X)为具有待执行任务n的移动设备的总数,B为带宽,n0为高斯白噪声的方差;
其中,cn表示任务n的计算结果在基站的缓存情况,cn=1表示任务n的计算结果在基站被缓存,cn=0表示表示任务n的计算结果未被基站缓存,Ld,n为任务n计算结果的大小,Ld,n>0,e1,n(X,H,λ)由下式定义:
e1,n(X,H,λ)=p(X,H)(Eu,n(f(X,H,Lu,n,Hu,n,λ),X,H)+Ee,n(X))+λf(X,H,Lu,n,Hu,n,λ);
与现有技术相比,本发明在多任务请求的移动边缘***中联合优化通信、缓存和计算资源从而达到节能目的,具有以下有益效果:
1、上传和下载机制可以实现节能的效果。对于任意任务,当多个移动设备需要上传该任务至基站计算时,只需由一个移动设备将任务上传至基站,避免重复传输,基站选择拥有最好信道(即最大信道功率)的移动设备来上传,最大程度实现节能效果。当多个移动设备下载该任务的计算结果时,基站用多播的方式发送一次该任务的计算结果,使得所有请求该任务的移动设备成功接收,避免重复传输,可以实现节能的效果。
2、在***计算能力允许的条件下,最优任务缓存和上传下载时间分配方案可以实现最优性能。
3、在***计算能力受限的情况下,低复杂度次优任务缓存和上传下载时间分配方案能够以低复杂度得到较好的方案。
4、在求解最优任务缓存和上传下载时间分配方案的步骤中,求解拉格朗日松弛问题,根据其最优解的次梯度,循环更新拉格朗日乘数,保证了方案的最优性。
5、在求解低复杂度次优任务缓存和上传下载时间分配方案时,先将基站缓存空间设置为零,得到中间变量后再重新考虑基站缓存,很大程度上降低了问题的复杂度。
附图说明
图1为本发明的***模型示意图;
图2为最优任务缓存和上传下载时间分配方案计算流程示意图;
图3为低复杂度次优任务缓存和上传下载时间分配方案计算流程示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
本发明提供一种适用于移动边缘计算场景的资源分配方法,该方法基于任务缓存和传输优化机制实现最优任务缓存和上传下载时间的资源分配或低复杂度次优任务缓存和上传下载时间的资源分配。
所提出的任务缓存和传输优化机制具体为:当移动设备待执行的任务的计算结果已被基站缓存时,移动设备从基站端下载该任务的计算结果,当移动设备待执行的任务的计算结果未被基站缓存时,移动设备将该任务上传至基站进行计算,然后从基站下载该任务的计算结果;其中,当多个移动设备上传同一任务至基站时,基站选择信道最好的移动设备实现上传,当多个移动设备下载同一任务的计算结果时,基站用多播的方式发送一次该任务的计算结果,并使得信道最差的移动设备恰好成功接收所述计算结果。
如图1所示的***模型中共有1个基站、5个移动设备和4个任务,基站存有任务1和任务2的计算结果,***中有两种信道状态:优信道和差信道。具体而言,移动设备1和移动设备2都待执行任务1,并且都具有相同的信道,基站已存储任务1的计算结果,基站根据移动设备1和2的信道计算传输速率,并以该传输速率直接将任务1的计算结果用多播的方式发送给移动设备1和移动设备2;只有移动设备3待执行任务2,而基站已存储任务2的计算结果,因此基站直接将任务2的计算结果用单播的方式发送给移动设备3;移动设备4和移动设备5都待执行任务4,由于基站没有存储任务4的计算结果,需要选择一个移动设备将任务4上传至基站,而移动设备4具有最好的信道,因此由移动设备4将任务4上传至基站,之后基站计算任务4,由于移动设备5具有最差的信道,因此基站根据移动设备5的信道计算传输速率,以该速率将任务4的计算结果用多播的方式发送给移动设备4和移动设备5,以保证移动设备4和移动设备5都可以成功接收。
一、基于任务缓存和传输优化机制实现最优任务缓存和上传下载时间的资源分配具体为,构建时延保障下的***平均总能耗最小化问题,求解获得最优分配方案,如图2所示,包括以下步骤:
A1)构建时延保障下的***平均总能耗最小化问题:
其中,E(c,Tu(X,H),Td(X,H),X,H)为***总能量消耗,cn表示任务n的计算结果在基站的缓存情况,cn=1表示任务n的计算结果在基站被缓存,cn=0表示任务n的计算结果未被基站缓存,表示***中任务的集合,X表示随机的***任务状态,H表示随机的***信道状态,Tu(X,H)和Td(X,H)分别代表***状态(X,H)下的各任务上传时间向量Tu和各任务下载时间向量Td,Ld,n为任务n计算结果的大小,Ld,n>0,C为基站缓存容量,tu,n为任务n的上传时间,td,n为任务n的下载时间,T为上传下载的总时间限制。
所述***总能量消耗定义为:
其中,Eu,n(tu,n,X,H)表示在***状态为(X,H)时,移动设备以上传时间tu,n将任务n上传到基站的传输能量损耗,Ee,n(X)表示在基站执行任务n、获得其计算结果的能量消耗,Ed,n(td,n,X,H)表示基站以下载时间td,n发送计算结果所需要的传输能量,具体地:
Eu,n(tu,n,X,H)定义为
其中,Hu,n为所有具有待执行任务n的移动设备与基站之间信道功率的最大值,Lu,n指任务n输入的大小,Lu,n>0,Kn(X)为具有待执行任务n的移动设备的总数,函数g(·)定义为:B为带宽,n0为高斯白噪声的方差。
Ed,n(td,n,X,H)定义为
Ee,n(X)的定义为
其中,Fb为基站频率,μ为由服务器的开关电容决定的常数因子,Le,n为任务n的工作负载,即执行任务n所需要的CPU周期数,Kn(X)为具有待执行任务n的移动设备的总数。
A2)构建拉格朗日松弛问题:
其中,L(c,Tu,Td,λ)为时延保障下的***平均总能耗最小化问题的拉格朗日函数,λ为拉格朗日因子。
A3)构建时延保障下的***平均总能耗最小化问题的对偶问题:
A5)求解λt下的拉格朗日松弛问题:
其中,e1,n(X,H,λ)由下式定义:
e1,n(X,H,λ)=p(X,H)(Eu,n(f(X,H,Lu,n,Hu,n,λ),X,H)+Ee,n(X))+λf(X,H,Lu,n,Hu,n,λ)
其中,p(X,H)表示***状态(X,H)出现的概率,f(X,H,Lu,n,Hu,n,λ)由下式定义:
其中,W(·)是朗伯函数,Kn(X)为具有待执行任务n的移动设备的总数,B为带宽,n0为高斯白噪声的方差;
A6)计算g(λt)的次梯度:
更新λt+1(X,H)=max{λt(X,H)+αts(X,H,λt),0},其中αt=(1+m)/(t+m),m是非负常数。
二、基于任务缓存和传输优化机制实现低复杂度次优任务缓存和上传下载时间的资源分配具体为,假定基站不缓存所有待执行任务的结果,得到上传下载时间分配的最优解后重新优化任务缓存分配,在得到一近似任务缓存方案后,根据该近似任务缓存方案重新优化上传下载时间分配方案,如图3所示,包括以下步骤:
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。
Claims (6)
1.一种适用于移动边缘计算场景的资源分配方法,其特征在于,该方法基于任务缓存和传输优化机制实现最优任务缓存和上传下载时间的资源分配或低复杂度次优任务缓存和上传下载时间的资源分配;
所述任务缓存和传输优化机制为:
当移动设备待执行的任务的计算结果已被基站缓存时,移动设备从基站端下载该任务的计算结果,当移动设备待执行的任务的计算结果未被基站缓存时,移动设备将该任务上传至基站进行计算,然后从基站下载该任务的计算结果,其中,当多个移动设备上传同一任务至基站时,基站选择信道最好的移动设备实现上传,当多个移动设备下载同一任务的计算结果时,基站用多播的方式发送一次该任务的计算结果,并使得信道最差的移动设备恰好成功接收所述计算结果;
基于任务缓存和传输优化机制实现最优任务缓存和上传下载时间的资源分配具体为:构建时延保障下的***平均总能耗最小化问题,求解获得最优分配方案;
所述最优任务缓存和上传下载时间的资源分配包括以下步骤:
A1)构建时延保障下的***平均总能耗最小化问题:
其中,E(c,Tu(X,H),Td(X,H),X,H)为***总能量消耗,cn表示任务n的计算结果在基站的缓存情况,cn=1表示任务n的计算结果在基站被缓存,cn=0表示任务n的计算结果未被基站缓存,表示***中任务的集合,X表示随机的***任务状态,H表示随机的***信道状态,Tu(X,H)和Td(X,H)分别代表***状态(X,H)下的各任务上传时间向量Tu和各任务下载时间向量Td,Ld,n为任务n计算结果的大小,Ld,n>0,C为基站缓存容量,tu,n为任务n的上传时间,td,n为任务n的下载时间,T为上传下载的总时间限制;
A2)构建拉格朗日松弛问题:
其中,L(c,Tu,Td,λ)为时延保障下的***平均总能耗最小化问题的拉格朗日函数,λ为拉格朗日因子;
A3)构建时延保障下的***平均总能耗最小化问题的对偶问题:
A4)迭代求解所述对偶问题,获得最优分配方案;
基于任务缓存和传输优化机制实现低复杂度次优任务缓存和上传下载时间的资源分配具体为:
假定基站不缓存所有待执行任务的结果,得到上传下载时间分配的最优解后重新优化任务缓存分配,在得到一近似任务缓存方案后,根据该近似任务缓存方案重新优化上传下载时间分配方案;
所述低复杂度次优任务缓存和上传下载时间的资源分配包括以下步骤:
其中,En(0,tu,n,td,n,X,H)表示对于任务n的***能量消耗,tu,n为将任务n上传到基站的上传时间,td,n为基站发送任务n的计算结果的下载时间,X表示随机的***任务状态,H表示随机的***信道状态,表示***中任务的集合,T为上传下载的总时间限制;
其中,f(X,H,Lu,n,Hu,n,λ)由下式定义:
其中,p(X,H)表示***状态(X,H)出现的概率,W(·)是朗伯函数,Kn(X)为具有待执行任务n的移动设备的总数,B为带宽,n0为高斯白噪声的方差;
其中,cn表示任务n的计算结果在基站的缓存情况,cn=1表示任务n的计算结果在基站被缓存,cn=0表示任务n的计算结果未被基站缓存,Ld,n为任务n计算结果的大小,Ld,n>0,e1,n(X,H,λ)由下式定义:
e1,n(X,H,λ)=p(X,H)(Eu,n(f(X,H,Lu,n,Hu,n,λ),X,H)+Ee,n(X))+λf(X,H,Lu,n,Hu,n,λ);
6.根据权利要求2所述的适用于移动边缘计算场景的资源分配方法,其特征在于,步骤A4)具体为:
A402)求解λt下的拉格朗日松弛问题:
其中,e1,n(X,H,λ)由下式定义:
e1,n(X,H,λ)=p(X,H)(Eu,n(f(X,H,Lu,n,Hu,n,λ),X,H)+Ee,n(X))+λf(X,H,Lu,n,Hu,n,λ)
其中,p(X,H)表示***状态(X,H)出现的概率,f(X,H,Lu,n,Hu,n,λ)由下式定义:
其中,W(·)是朗伯函数,Kn(X)为具有待执行任务n的移动设备的总数,B为带宽,n0为高斯白噪声的方差;
A403)计算g(λt)的次梯度:
更新λt+1(X,H)=max{λt(X,H)+αts(X,H,λt),0},其中αt=(1+m)/(t+m),m是非负常数;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710600370.2A CN107708135B (zh) | 2017-07-21 | 2017-07-21 | 一种适用于移动边缘计算场景的资源分配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710600370.2A CN107708135B (zh) | 2017-07-21 | 2017-07-21 | 一种适用于移动边缘计算场景的资源分配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107708135A CN107708135A (zh) | 2018-02-16 |
CN107708135B true CN107708135B (zh) | 2021-01-22 |
Family
ID=61170090
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710600370.2A Active CN107708135B (zh) | 2017-07-21 | 2017-07-21 | 一种适用于移动边缘计算场景的资源分配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107708135B (zh) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108738045B (zh) * | 2018-04-17 | 2021-04-06 | 浙江工业大学 | 基于深度确定性策略梯度的移动边缘计算速率最大化方法 |
CN108834080B (zh) * | 2018-04-17 | 2021-03-19 | 东南大学 | 异构网络中基于多播技术的分布式缓存和用户关联方法 |
CN108738046B (zh) * | 2018-04-17 | 2021-04-06 | 浙江工业大学 | 一种基于半监督学习的移动边缘计算速率最大化方法 |
CN108632862B (zh) * | 2018-04-17 | 2021-06-18 | 浙江工业大学 | 基于深度确定性策略梯度的移动边缘计算分流决策方法 |
CN108632861B (zh) * | 2018-04-17 | 2021-06-18 | 浙江工业大学 | 一种基于深度强化学习的移动边缘计算分流决策方法 |
CN108632860B (zh) * | 2018-04-17 | 2021-06-18 | 浙江工业大学 | 一种基于深度强化学习的移动边缘计算速率最大化方法 |
CN108833468B (zh) * | 2018-04-27 | 2021-05-11 | 广州西麦科技股份有限公司 | 基于移动边缘计算的视频处理方法、装置、设备及介质 |
CN108712755B (zh) * | 2018-05-18 | 2021-02-26 | 浙江工业大学 | 基于深度强化学习的非正交接入上行传输时间优化方法 |
CN108848514B (zh) * | 2018-06-20 | 2021-08-03 | 中国联合网络通信集团有限公司 | 数据通信优化方法及数据通信优化器 |
FR3086493B1 (fr) * | 2018-09-20 | 2020-08-28 | Renault Sas | Procede de reattribution d’un serveur peripherique de traitement de donnees |
CN109089272B (zh) * | 2018-09-21 | 2021-10-15 | 浙江工业大学 | 在多基站场景中的移动边缘计算布伦特式时延优化方法 |
CN109067490B (zh) * | 2018-09-29 | 2020-10-30 | 郑州航空工业管理学院 | 蜂窝网联下多无人机协同移动边缘计算***资源分配方法 |
CN109413724B (zh) * | 2018-10-11 | 2021-09-03 | 重庆邮电大学 | 一种基于mec的任务卸载和资源分配方案 |
CN109462879B (zh) * | 2018-12-17 | 2020-07-31 | 中国科学院计算技术研究所 | 一种接纳控制方法及*** |
CN109743099A (zh) * | 2019-01-10 | 2019-05-10 | 深圳市简智联信息科技有限公司 | 移动边缘计算***及其资源分配方法 |
CN109885397B (zh) * | 2019-01-15 | 2023-04-07 | 长安大学 | 一种边缘计算环境中时延优化的负载任务迁移算法 |
CN109814951B (zh) * | 2019-01-22 | 2021-09-28 | 南京邮电大学 | 移动边缘计算网络中任务卸载及资源分配的联合优化方法 |
CN110234127B (zh) * | 2019-06-11 | 2022-04-01 | 重庆邮电大学 | 一种基于sdn的雾网络任务卸载方法 |
CN110351760B (zh) * | 2019-07-19 | 2022-06-03 | 重庆邮电大学 | 一种移动边缘计算***动态任务卸载及资源分配方法 |
CN110248206B (zh) * | 2019-07-29 | 2020-08-28 | 北京邮电大学 | 一种用于边缘网络***的资源分配方法、装置及电子设备 |
CN110602103B (zh) * | 2019-09-17 | 2021-09-10 | 中国联合网络通信集团有限公司 | 电子锁协议转换优化方法及电子锁协议转换优化器 |
CN110958675B (zh) * | 2019-10-29 | 2021-08-17 | 南京邮电大学 | 基于5g雾计算节点的终端接入方法 |
CN110913429B (zh) * | 2019-11-07 | 2023-04-11 | 北京长焜科技有限公司 | 一种无线边缘分流透明接入的方法 |
CN111132191B (zh) * | 2019-12-12 | 2022-04-01 | 重庆邮电大学 | 移动边缘计算服务器联合任务卸载、缓存及资源分配方法 |
CN111263303B (zh) * | 2020-01-15 | 2021-02-02 | 北京交通大学 | 一种基于移动ip的雾节点自组织协作的方法 |
CN111475301B (zh) * | 2020-04-09 | 2021-06-11 | 清华大学 | 卫星资源分配方法、装置和电子设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101789834A (zh) * | 2010-01-29 | 2010-07-28 | 中国人民解放军理工大学 | 基于网络编码的协同频谱感知方法 |
CN106231607A (zh) * | 2016-09-21 | 2016-12-14 | 北京佰才邦技术有限公司 | 一种资源分配的方法及基站 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7996350B2 (en) * | 2008-03-05 | 2011-08-09 | The Boeing Company | Virtual intelligent fabric |
-
2017
- 2017-07-21 CN CN201710600370.2A patent/CN107708135B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101789834A (zh) * | 2010-01-29 | 2010-07-28 | 中国人民解放军理工大学 | 基于网络编码的协同频谱感知方法 |
CN106231607A (zh) * | 2016-09-21 | 2016-12-14 | 北京佰才邦技术有限公司 | 一种资源分配的方法及基站 |
Also Published As
Publication number | Publication date |
---|---|
CN107708135A (zh) | 2018-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107708135B (zh) | 一种适用于移动边缘计算场景的资源分配方法 | |
Zhang et al. | Dynamic task offloading and resource allocation for mobile-edge computing in dense cloud RAN | |
CN109951821B (zh) | 基于移动边缘计算的最小化车辆能耗任务卸载方案 | |
CN107819840B (zh) | 超密集网络架构中分布式移动边缘计算卸载方法 | |
Liu et al. | Matching-based task offloading for vehicular edge computing | |
Cui et al. | Energy-efficient resource allocation for cache-assisted mobile edge computing | |
Li et al. | Energy-aware mobile edge computation offloading for IoT over heterogenous networks | |
CN111010684B (zh) | 一种基于mec缓存服务的车联网资源分配方法 | |
Yang | A joint optimization scheme for task offloading and resource allocation based on edge computing in 5G communication networks | |
Li et al. | Joint optimization of caching and computation in multi-server NOMA-MEC system via reinforcement learning | |
Zhong et al. | Cooperative service caching and computation offloading in multi-access edge computing | |
Li et al. | Distributed task offloading strategy to low load base stations in mobile edge computing environment | |
Zhang et al. | Theoretical analysis on edge computation offloading policies for IoT devices | |
Zheng et al. | MEC-enabled wireless VR video service: A learning-based mixed strategy for energy-latency tradeoff | |
Zhao et al. | Task proactive caching based computation offloading and resource allocation in mobile-edge computing systems | |
Liu et al. | A distributed dependency-aware offloading scheme for vehicular edge computing based on policy gradient | |
Zhang et al. | Effect: Energy-efficient fog computing framework for real-time video processing | |
Fang et al. | Smart collaborative optimizations strategy for mobile edge computing based on deep reinforcement learning | |
Bista et al. | Probabilistic computation offloading for mobile edge computing in dynamic network environment | |
Yang et al. | Load optimization based on edge collaboration in software defined ultra-dense networks | |
Fan et al. | Joint service caching and computation offloading to maximize system profits in mobile edge-cloud computing | |
Di Pietro et al. | An optimal low-complexity policy for cache-aided computation offloading | |
Liu et al. | A multi-user computation offloading algorithm based on game theory in mobile cloud computing | |
Wang et al. | Joint optimization of resource allocation and computation offloading based on game coalition in C-V2X | |
Ho et al. | Deep Q-learning for joint server selection, offloading, and handover in multi-access edge computing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |