CN111585916A - 基于云边协同的lte电力无线专网任务卸载和资源分配方法 - Google Patents

基于云边协同的lte电力无线专网任务卸载和资源分配方法 Download PDF

Info

Publication number
CN111585916A
CN111585916A CN201911365711.8A CN201911365711A CN111585916A CN 111585916 A CN111585916 A CN 111585916A CN 201911365711 A CN201911365711 A CN 201911365711A CN 111585916 A CN111585916 A CN 111585916A
Authority
CN
China
Prior art keywords
task
cloud
edge
computing
edge node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911365711.8A
Other languages
English (en)
Other versions
CN111585916B (zh
Inventor
李欢
孙峰
刘扬
王东东
卢盛阳
杨智斌
任帅
李桐
佟昊松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
State Grid Corp of China SGCC
Electric Power Research Institute of State Grid Liaoning Electric Power Co Ltd
Original Assignee
State Grid Corp of China SGCC
Electric Power Research Institute of State Grid Liaoning Electric Power Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by State Grid Corp of China SGCC, Electric Power Research Institute of State Grid Liaoning Electric Power Co Ltd filed Critical State Grid Corp of China SGCC
Priority to CN201911365711.8A priority Critical patent/CN111585916B/zh
Publication of CN111585916A publication Critical patent/CN111585916A/zh
Application granted granted Critical
Publication of CN111585916B publication Critical patent/CN111585916B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/80Actions related to the user profile or the type of traffic
    • H04L47/805QOS or priority aware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L5/00Arrangements affording multiple use of the transmission path
    • H04L5/003Arrangements for allocating sub-channels of the transmission path
    • H04L5/0044Arrangements for allocating sub-channels of the transmission path allocation of payload
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L5/00Arrangements affording multiple use of the transmission path
    • H04L5/003Arrangements for allocating sub-channels of the transmission path
    • H04L5/0058Allocation criteria
    • H04L5/006Quality of the received signal, e.g. BER, SNR, water filling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/104Peer-to-peer [P2P] networks
    • H04L67/1074Peer-to-peer [P2P] networks for supporting data block transmission mechanisms
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Quality & Reliability (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本发明属于电力技术领域,尤其涉及一种基于云边协同的LTE电力无线专网任务卸载和资源分配方法。本发明是在云边协同***中存在的四种不同时延,计算出设备的全部时延并为所有移动设备总时延最小化的问题建立为数学模型;分四种不同的***场景考虑任务卸载方案,并求解出云边协同***中计算资源的最优分配值。在所有情况下,本发明方法性能都是最优的,通过执行云边协同策略,采用本发明所提出的任务卸载和资源分配策略,可以对边缘节点和云服务器的计算能力进行最优的调配,实现平均***时延的最小化。

Description

基于云边协同的LTE电力无线专网任务卸载和资源分配方法
技术领域
本发明属于电力技术领域,尤其涉及一种基于云边协同的LTE电力无线专网任务卸载和资源分配方法。
背景技术
随着LTE电力无线专网的快速发展,网络中接入设备的数量不断增加,对传统的云计算网络带来了极大的挑战。传统的云计算由于多跳数据传输导致任务延时较大,核心网负载较大。移动边缘计算被认为是下一代无线通信的关键技术,通过部署于网络边缘的移动边缘计算中心,提供低延时的计算服务并提高网络的计算能力,以满足不断提高的用户需求。
为使用边缘网络提供的服务,移动设备如何将所承担的任务卸载至边缘服务器,进行高效合理的卸载决策,已经成为目前边缘计算问题的主要研究方向。然而,随着物联网等技术的发展,数据计算业务规模以***式增长,任务数据涌入计算网络,对移动边缘计算中心有限的计算资源与通信资源造成极大的挑战。
现有技术如下:
技术方案1:专利公布号为CN109302709A,名称为面向移动边缘计算的车联网任务卸载与资源分配策略,涉及车辆异构网络中基于(MEC)的任务卸载模式决策和资源分配方法,主要通过两步完成:第一,采用改进的K-means算法依据不同的QoS对请求车辆进行聚类从而确定通信模式;第二,利用基于无竞争期(CFP)的LTE-U,结合载波聚合(CA)技术,使用分布式Q-Learning算法进行信道和功率分配。
技术方案2:专利公布号为CN109698861A,名称为一种基于代价优化的计算任务卸载算法,涉及一种基于代价优化的计算任务卸载算法,主要通过四步完成:第一,构建边云计算新模型;所述边云计算新模型包括计算三种重要的代价:计算任务的执行代价、同端计算任务之间的通信代价、跨端计算任务之间的非对称通信代价;第二,对边云计算新模型进行扩展;第三,合并计算代价;第四,基于贪婪准则来求解优化卸载策略。
技术方案3:专利公布号为CN110489176A,名称为一种基于装箱问题的多接入边缘计算任务卸载方法,主要通过三步完成:首先计算每个边缘服务器的容载能力和每个终端任务的输入数据大小与所需计算资源的比值;然后按照容载能力和任务比值从大到小形成两个队列;最后将任务队列中的任务依次取出配置到容器队列中的容载能力最大并还有剩余计算资源的边缘服务器上,重复此操作直至任务队列为空。
技术方案1针对移动边缘计算(MEC)提供IT服务环境和云计算能力带来的高带宽、低时延优势,同时结合LTE免授权频谱(LTE-U)技术,该文研究了车辆异构网络中基于(MEC)的任务卸载模式决策和资源分配问题。考虑链路差异化要求,即车辆到路边单元(V2I)链路的高容量和车辆到车辆(V2V)链路的高可靠性,我们将用户服务质量(QoS)建模为容量与时延的组合形式。但此类方法的缺点是很难在别的背景中进行拓展。
技术方案2涉及一种基于代价优化的计算任务卸载算法,解决了边缘计算和云计算的结合框架中,计算任务的卸载优化问题。但此方法没有完全考虑到云边协同***中存在的不同类型的时延。
技术方案3提出了一种基于装箱问题的多接入边缘计算任务卸载方法,该方法将用户终端和边缘服务器视作任务容器,将任务视作物品,从而将边缘计算中任务卸载决策问题转化成一个装箱问题,再通过启发式方法最小化网络内启用的边缘服务器数目,求解任务卸载决策。但此类方法的缺点是没有考虑不同类型的***的区别。
因此,如何在有限的资源背景下做出有效的任务卸载和资源分配决策成为一个关键问题。
发明内容
针对上述现有技术中存在的不足之处,本发明提供一种基于云边协同的LTE电力无线专网任务卸载和资源分配方法,其目的是为了研究云边协同***中存在的不同时延,在有限的资源下通过任务卸载和计算资源分配实现所有移动设备总时延的最小化。
本发明解决其技术问题所采用的技术方案是:
基于云边协同的LTE电力无线专网任务卸载和资源分配方法,是在云边协同***中存在的四种不同时延,计算出设备的全部时延并为所有移动设备总时延最小化的问题建立为数学模型;分四种不同的***场景考虑任务卸载方案,并求解出云边协同***中计算资源的最优分配值;包括以下步骤:
步骤1.建立云边协同***;
步骤2.建立MEC缓存模型;
步骤3.对云边协同***中存在的时延进行分析;
步骤4.针对时延分析结果,构建问题模型;
步骤5.对构建的问题提出分解;
步骤6.对构建的问题提出解决方案。
步骤1所述建立云边协同***,云边协同***由中心云服务器和m个SCeNB构成,用集合M={1,2,...,J}表示;每个SCeNB都部署着MEC服务器,MEC服务器将有限的资源用于数据处理,缓存和存储;每个SCeNB和MEC服务器的组合称为边缘节点;在第j个SCeNB的覆盖区域内,存在由集合χj表示的xj个移动设备,每个移动设备都具有不同时延要求的计算任务;假设每个用户都已经与一个基站相连接,具体连接关系通过用户联通策略确定;每个移动设备都通过无线信道连接相应的基站,并且边缘节点通过不同的回程链路将数据传输到云服务器;在***中,假设每个计算任务在边缘节点和云服务器上都能够进行处理;根据[1]中的模型,假设所有任务都具有相同的类型,并且同时到达,用qi,j=(si,j,ci,j)表示连接着第j个边缘节点的第i个移动设备所产生的计算任务,其中si,j表示计算任务的大小,ci,j表示计算此任务需要的CPU计算周期;用N表示该***在某一时间段内请求的总任务数;将第j个边缘节点中的MEC服务器的计算能力和云服务器的计算能力分别定义为Fj e和Fc;通过虚拟机技术将每个MEC服务器和云服务器的计算资源分配给移动设备。
步骤2所述建立MEC缓存模型,包括:对于每个任务,将MEC服务器的缓存向量定义为Yi,j=[y1,1,y1,2,...,yi,j];如果yi,j=1,则表示MEC服务器已缓存任务的计算结果,而yi,j=0则表示没有缓存对应的任务结果;当yi,j=1时,MEC服务器直接将计算结果传输到移动设备,无需进行计算;由于SCeNB的传输功率大于移动设备的传输功率,计算结果的数据量小于任务本身的数据量,忽略无线下行链路上的传输延迟,认为MEC缓存方案所需的传输延迟为0;MEC缓存模型将频繁被请求任务的结果直接返回给移动设备,减少时延和降低能耗。
步骤3所述云边协同***中存在的时延分析,包括:在云-边-端的任务分配模型中,假设每个移动设备由于其有限的计算能力和电量,移动设备发送任务请求,判断此任务的结果是否存在于缓存中;如果存在,则直接返回任务结果;如果不存在,则此移动设备会将任务上传至边缘节点;再由对应的边缘节点确定任务是由边缘节点独自处理还是由边缘节点与云服务器协同处理。
所述如果不存在,则此移动设备会将任务上传至边缘节点,所述边缘节点同时也负责确定每个任务在云边的卸载比例。
步骤3所述云边协同***中存在的时延分析,具体包括以下步骤:
步骤(1)移动设备向所连接的边缘节点发送对应的任务请求,用于判断此条数据是否是自己想要的,边缘节点判断这个任务的结果是否存在于缓存中;如果存在,则直接返回任务结果,任务处理结束;反之,则继续下一步;
步骤(2)移动设备直接通过无线信道将整个时延敏感任务上传到连接的边缘节点;
步骤(3)位于每个边缘节点的MEC服务器将接收到的任务分为两部分,其中一部分留在MEC服务器上,另一部分则卸载到云服务器上;
步骤(4)MEC服务器将其可用的计算资源分配给每个计算任务,同时通过回程链路将部分数据上传到云服务器;
步骤(5)云服务器通过将计算资源分配给相应的计算任务,从而实现并行的计算;
步骤(6)由每个边缘节点收集计算结果,先通过任务缓存策略对计算结果进行缓存,再将计算结果返回给每个移动设备。
所述计算过程中存在的延迟,包括:
a.移动设备的传输时延:根据香农公式,将MTi的上传速率ri,j表示为:
Figure BDA0002338351620000041
其中B表示信道带宽,pi表示MTi的发送功率,σ2表示移动设备的噪声功率,Ii,j表示小区内部的干扰功率,gi,j表示通信的信道增益;
sc是通过光纤与MEC通信,两者之间的传输速率c远远大于MTi的上传速率ri,j,且两者之间的距离非常小,忽略sc与MEC的通信时延,用
Figure BDA0002338351620000042
来表示移动设备将任务qi上传到scj产生的时延:
Figure BDA0002338351620000043
上式中:MTi的上传速率ri,j,Si表示计算任务的大小;
b.边缘节点的计算时延:边缘节点成功接收从移动设备发送的完整计算任务后,MEC服务器会立刻执行卸载策略,将每个计算任务分成两部分,一部分由MEC服务器执行,另一部分由云服务器执行;假设在不考虑任务内容的情况下任意拆分每个计算任务,对应于视频压缩和语音识别等场景[];定义εi,j∈[0,1]为计算任务的划分比率,εi,j表示在MEC服务器执行的计算任务数据比例;用
Figure BDA0002338351620000051
表示第j个边缘节点给第i个移动设备分配的计算资源,将在边缘节点执行任务产生的时延表示为:
Figure BDA0002338351620000052
上式中:Ci,j表示计算此任务需要的CPU计算周期;
c.边缘节点的传输时延:对于每个边缘节点,将通信模块和计算模块(CPU/GPU)分开;所述通信模块为收发器,所述计算模块为CPU/GPU;
在边缘节点中,任务的计算和任务的传输并行执行;所有边缘节点都通过不同的回程链路与云服务器连接;提出边缘计算和云计算的最佳协同策略,假设资源调度策略和路由算法都已确定;将Hj表示为与第j个边缘节点关联的每个设备的回程通信容量;平均回程传输时延与传输的数据大小成正比,表示为:
Figure BDA0002338351620000053
其中
Figure BDA0002338351620000054
代表通过回程链路传输1比特大小的数据所需的时间,Si表示计算任务的大小,εi,j表示在MEC服务器执行的计算任务数据比例;
d.云服务器的计算时延:当云服务成功接收从边缘节点发送的任务数据,云服务器会分配可用的计算资源给每一个任务实现并行处理;(1-εi,j)si,jci,j表示执行卸载到云服务器的任务所需要的CPU数量,即计算资源;用
Figure BDA0002338351620000055
表示由第j个边缘节点提供服务的第i个移动设备分配到的云计算资源;云服务器的计算时延表示为:
Figure BDA0002338351620000061
上式中:Ci,j表示计算此任务需要的CPU计算周期。
步骤1中所述云边协同***中存在的不同时延,包括:移动设备的传输时延、边缘节点的计算时延、边缘节点的传输时延及云服务器的计算时延;每台设备所产生的全部时延,包括:
假设1:由于任务的卸载取决于每个任务的特定参数;
假设2:任务计算依赖特定的数据结构以及相邻数据之间的相关性,云服务器直到边缘节点与云服务器之间的传输结束后开始处理任务;
基于以上的假设,由第j个边缘节点提供服务的第i个移动设备所产生的全部时延可以表示为:
Figure BDA0002338351620000062
上式中:
Figure BDA0002338351620000063
表示移动设备将任务qi上传到scj产生的时延,
Figure BDA0002338351620000064
表示在边缘节点执行任务产生的时延,
Figure BDA0002338351620000065
表示边缘节点将任务上传到云服务器产生的时延,
Figure BDA0002338351620000066
表示计算任务在云服务器处理产生的时延;
在有限的资源下通过任务卸载和计算资源分配,实现所有移动设备总时延的最小化,目标表示为:
Figure BDA0002338351620000067
Figure BDA0002338351620000068
Figure BDA0002338351620000069
Figure BDA00023383516200000610
上式中:yi,j表示任务的缓存状态;
其中(7a)和(7b)表示分配给移动设备的边缘计算资源和云计算资源都不可能超过其本身最大的计算资源数;优化变量包括任务的卸载比率{εi,j},计算资源的分配情况
Figure BDA0002338351620000071
步骤5所述对构建的问题进行分解,包括:
将Q1分解成两部分:
Figure BDA0002338351620000072
任务卸载和计算资源分配只影响后一部分的求解,将问题进行划分:
Figure BDA0002338351620000073
其中
Figure BDA0002338351620000074
步骤6中所述对构建的问题提出解决方案,包括:
(1)任务缓存策略:
在进行任务卸载决策之前,对问题Q2进一步化简,利用任务缓存策略求出缓存向量Yi,j=[y1,1,y1,2,...,yi,j],算法过程如图4所示:
假设移动设备请求任务Q的请求次数遵循泊松分布,满足
Figure BDA0002338351620000075
C表示任务的请求次数,λ表示单位时间任务的平均发生率;初始化时将向量组Y设为空,对于每个任务,首先根据泊松分布确定任务类型,随后判断任务是否存在于任务缓存表中,存在则由MEC服务器直接将执行结果返回给移动设备,yi,j设为1,反之则继续判断任务是否存在于任务历史记录表;如果存在于表中,将yi,j设为1,直接返回执行结果,并将此任务存入任务缓存表,同时更新任务历史记录表;如果两个表都没有记录任务qi,则将yi,j设为0,如此遍历子任务空间,最后得到向量组Yi,j=[y1,1,y1,2,...,yi,j];
利用向量组Yi,j=[y1,1,y1,2,...,yi,j]对Q2进行化简可得:
Figure BDA0002338351620000081
其中
Figure BDA0002338351620000082
(2)任务卸载策略:
确定最优的任务卸载比率εi,j,在分析的过程中保持
Figure BDA0002338351620000083
的值不变;
通过分析计算延迟
Figure BDA0002338351620000084
和任务分配比εi,j之间的单调性确定最优的划分比率
Figure BDA0002338351620000085
首先,根据公式
Figure BDA0002338351620000086
推断出
Figure BDA0002338351620000087
是单调递增的,随εi,j的增加而增加;当εi,j∈[0,1],得到
Figure BDA0002338351620000088
其次,根据公式
Figure BDA0002338351620000089
推断出
Figure BDA00023383516200000810
是单调递减的,随εi,j的增加而减少,同样得到函数的取值范围
Figure BDA00023383516200000811
观察公式
Figure BDA00023383516200000812
结合之前的讨论,发现
Figure BDA00023383516200000813
先随着εi,j的增加而减少,再随着εi,j的增加而增加;当
Figure BDA00023383516200000814
时,得到
Figure BDA00023383516200000815
的最小值:
Figure BDA00023383516200000816
其中
Figure BDA00023383516200000817
Figure BDA00023383516200000818
每个移动设备定义两个重要的参数,包括:
(2.1)归一化回程通信容量被定义为回程通信容量和边缘计算能力之比,即
Figure BDA0002338351620000091
(2.2)归一化云计算能力被定义为云计算能力与边缘计算能力之比,即
Figure BDA0002338351620000092
基于以上的定义,得到最优的任务卸载策略;在云边协同***中,最优的任务卸载策略
Figure BDA0002338351620000093
表示为:
Figure BDA0002338351620000094
上式中:μi,j表示回程通信容量和边缘计算能力之比,νi,j表示云计算能力与边缘计算能力之比;
所述公式(10)存在的不同的***如下:
第1种:通信受限型***:边缘节点与云服务器拥有充足的计算资源,但通信容量不足;
在这种情况下,
Figure BDA0002338351620000095
当一个边缘节点连接大量的移动设备,并且回程链路的容量不足时发生这种情况,将最优任务卸载比率进行化简:
Figure BDA0002338351620000096
公式(11)表示在这种情况下,最优任务卸载比率仅由归一化的回程通信容量确定,不受归一化的云计算容量的影响;在这种情况下,通信资源减少每个设备的端到端延迟的主要瓶颈;当μi,j→0,最优的任务卸载比率
Figure BDA0002338351620000097
为1,所有的计算任务都是在边缘节点执行;
第2种:计算受限型***:边缘节点和云服务器拥有充足的通信容量,但计算资源不足;
在这种情况下,
Figure BDA0002338351620000098
将最优任务卸载比率进行化简:
Figure BDA0002338351620000101
最优任务卸载比率仅由归一化的云计算能力确定,在这种情况下,由于回程通信容量相对充足,通信所产生的时延变得小,计算时延的大小决定移动设备整体时延的大小;在这种情况下,边缘节点和云服务器被视为一个整体,根据它们的计算能力之比,即νi,j按比例拆分任务;如果边缘节点的计算能力大于云服务器的计算能力,即νi,j<1,则给边缘节点卸载更多的数据;否则,将更多数据卸载到云中,在νi,j=1的特殊情况下,数据在边缘节点和云服务器之间平均分配;
第3种:边缘主导型***:边缘节点给移动设备分配的计算资源远远多于云服务器分配的计算资源,即
Figure BDA0002338351620000102
得到νi,j→0,这种情况对应于大规模小蜂窝网络,其中云服务器为许多边缘节点提供服务;在这个***中,将最优任务卸载比率进行如下化简:
Figure BDA0002338351620000103
表明应该在边缘节点上执行整个任务,整个任务只需要卸载到边缘节点;
第4种:云端主导型***:云服务器拥有充足的计算资源,而边缘节点计算资源有限,即
Figure BDA0002338351620000104
得到νi,j→∞,这种***对应于云服务器计算能力强大,边缘节点计算能力弱的场景;将νi,j→∞代入公式可得:
Figure BDA0002338351620000105
根据公式,看出最优任务卸载比率仅由归一化的回程通信容量决定;如果回程通信容量Hj变大或者边缘节点的计算能力
Figure BDA0002338351620000106
变小,最优任务卸载比率也会随之减小;因为当νi,j→∞时,云端执行任务产生的时延与边缘节点执行任务产生的时延相比可以忽略不计;因此当μi,j<1时,回程传输产生的时延将主导该移动设备的整体时延,从而导致卸载到边缘侧处理的任务数据所占比例更大,即
Figure BDA0002338351620000111
否则,当μi,j>1时,更多的数据应该卸载到云服务器执行;
(3)计算资源分配策略:将最优任务卸载比率
Figure BDA0002338351620000112
代入公式,将计算时延
Figure BDA0002338351620000113
化简为:
Figure BDA0002338351620000114
问题Q3重写为:
Figure BDA0002338351620000115
定理1:Q4是一个凸优化问题;
证明:只需要证明目标函数和目标函数的限制条件都为凸函数,定理便得证;观察限制条件(7a)和(7b),可以看出,约束(7c)和(7d)是仿射的,反映了它们的凸性;下面证明目标函数同样也是凸函数:
Figure BDA0002338351620000116
的海瑟矩阵表示为:
Figure BDA0002338351620000117
通过数学计算,获得W所有的前主子式:
Figure BDA0002338351620000118
Figure BDA0002338351620000119
根据线性代数理论,当一个矩阵的前主子式都是正定的话,这个矩阵就是正定矩阵;得到,
Figure BDA0002338351620000121
基于变量
Figure BDA0002338351620000122
Figure BDA0002338351620000123
的凸函数;而目标函数
Figure BDA0002338351620000124
是一系列凸函数之和,得出目标函数也是一个凸函数;定理1得证;
根据定理1,得出Q4满足KKT条件,利用拉格朗日算子求出云边协同***中计算资源的最优分配值:
Figure BDA0002338351620000125
其中
Figure BDA0002338351620000126
和θ是拉格朗日的最优变量。
本发明具有以下优点及有益技术效果:
本发明提出一种基于云边协同的任务卸载和资源分配(Cloud-Edge-TORD)方案,建立了云边协同***和MEC缓存模型,并分析了在云边协同***中存在的时延。在有限的资源下通过任务卸载和计算资源分配实现所有移动设备总时延的最小化的目标,建立了问题模型,并对问题进行了分解,得出任务缓存,卸载和资源分配策略。
本发明立足于建立的云边协同***和MEC缓存模型,分析了云边协同***中的时延,根据时延最小化的目标。仿真表明,在所有情况下,本发明所提出的Cloud-Edge-TORD方案性能都是最优的,因为通过执行云边协同策略,采用本发明所提出的任务卸载和资源分配策略,可以对边缘节点和云服务器的计算能力进行最优的调配,实现平均***时延的最小化。
附图说明
为了更清楚地说明本发明实施例的技术方案,下文中将对本发明实施例的附图进行简单介绍。其中,附图仅仅用于展示本发明的一些实施例,而非将本发明的全部实施例限制于此。
图1是本发明云边协同***示意图;
图2是本发明云边协同***任务执行流程示意图;
图3是本发明MEC缓存模型示意图;
图4是本发明中缓存向量算法过程图;
图5是本发明云服务器计算能力增大时4种方案的时延对比图;
图6是本发明云服务器计算能力变小时4种方案的时延对比图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
实施例1
本发明是一种基于云边协同的LTE电力无线专网任务卸载和资源分配方法,在云边协同***中存在的四种不同时延,计算出设备的全部时延并为所有移动设备总时延最小化的问题建立为数学模型。本发明分四种不同的***场景考虑任务卸载方案,并求解出云边协同***中计算资源的最优分配值。
本发明是一种基于云边协同的LTE电力无线专网任务卸载和资源分配方法包括以下步骤:
步骤1.建立云边协同***;
步骤2.建立MEC缓存模型;
步骤3.对云边协同***中存在的时延进行分析;
步骤4.针对时延分析结果,构建问题模型;
步骤5.对构建的问题进行分解;
步骤6.对构建的问题提出解决方案。
本发明中步骤1所述建立云边协同***,如图1所示,图1是本发明云边协同***示意图。云边协同***由一个中心云服务器和m个SCeNB构成,用集合M={1,2,...,J}表示。所述SCeNB表示小基站。每个SCeNB都部署着MEC服务器,该MEC服务器将有限的资源用于数据处理,缓存和存储。每个SCeNB和MEC服务器的组合被称为边缘节点。在第j个SCeNB的覆盖区域内,存在由集合χj表示的xj个移动设备,每个移动设备都具有不同时延要求的计算任务。假设每个用户都已经与一个基站相连接,具体连接关系可以通过一些的用户联通策略确定。此外,每个移动设备都通过无线信道连接相应的基站,并且边缘节点通过不同的回程链路将数据传输到云服务器。在该***中,假设每个计算任务在边缘节点和云服务器上都可以进行处理根据[1]中的模型,[1]Y.Mao,C.You,J.Zhang,K.Huang,andK.B.Letaief,“Asurvey onmobile edge computing:The communication perspective,”IEEECommun.Surv.Tut.,vol.19,no.4,pp.2322–2358,Aug.2017。
我们假设所有任务都具有相同的类型,并且同时到达,因此可以用qi,j=(si,j,ci,j)表示连接着第j个边缘节点的第i个移动设备所产生的计算任务,其中si,j表示计算任务的大小,ci,j表示计算此任务需要的CPU计算周期。用N表示该***在某一时间段内请求的总任务数,此外,将第j个边缘节点中的MEC服务器的计算能力和云服务器的计算能力分别定义为
Figure BDA0002338351620000141
和Fc。可以通过虚拟机技术将每个MEC服务器和云服务器的计算资源分配给移动设备。如图2所示,图2是本发明云边协同***任务执行流程示意图。
步骤2所述建立MEC缓存模型,如图3所示,图3是本发明MEC缓存模型示意图。对于每个任务,可以将MEC服务器的缓存向量定义为Yi,j=[y1,1,y1,2,...,yi,j]。如果yi,j=1,则表示MEC服务器已缓存任务的计算结果,而yi,j=0则表示没有缓存对应的任务结果。此外,当yi,j=1时,MEC服务器直接将计算结果传输到移动设备,而无需进行计算。由于SCeNB的传输功率远大于移动设备的传输功率,并且计算结果的数据量远小于任务本身的数据量,因此,可以忽略无线下行链路上的传输延迟,认为MEC缓存方案所需的传输延迟为0。MEC缓存模型可以将频繁被请求任务的结果直接返回给移动设备,能够有效的减少时延和降低能耗。
步骤3所述云边协同***中存在的时延分析,在这个云-边-端的任务分配模型中,假设每个移动设备由于其有限的计算能力和电量,所以不会直接处理任务,不存在本地计算。移动设备首先会发送一个任务请求,判断此任务的结果是否存在于缓存中。如果存在,则直接返回任务结果,如果不存在,则此移动设备会将任务上传至边缘节点。然后,由对应的边缘节点确定任务是由边缘节点独自处理还是由边缘节点与云服务器协同处理。在后一种情况下,边缘节点同时也负责确定每个任务在云边的卸载比例。
步骤3所述云边协同***中存在的时延分析,具体包括以下步骤:
步骤(1)移动设备首先会向所连接的边缘节点发送对应的任务请求,相当于https协议一开始只发送数据的head部分,用于判断此条数据是否是自己想要的,边缘节点会判断这个任务的结果是否存在于缓存中。如果存在,直接返回任务结果,任务处理结束;反之,则接着继续下一步。
步骤(2)移动设备直接通过无线信道将整个时延敏感任务上传到连接的边缘节点,没有本地计算。
步骤(3)位于每个边缘节点的MEC服务器将接收到的任务分为两部分,其中一部分留在MEC服务器上,另一部分则卸载到云服务器上。
步骤(4)MEC服务器将其可用的计算资源分配给每个计算任务,并同时通过回程链路将部分数据上传到云服务器。
步骤(5)云服务器也通过将计算资源分配给相应的计算任务,从而实现并行的计算。
步骤(6)最后由每个边缘节点收集计算结果,先通过任务缓存策略对计算结果进行缓存,然后将计算结果返回给每个移动设备。
应当注意,与相应的计算和通信延迟相比,划分任务的时间非常短,因此可以忽略。此外,任务请求和计算结果的数据量都非常小,因此可以忽略发送和返回时延,这对应于许多实际的计算场景,例如面部识别,病毒检测和视频分析等等。
其中,所述计算过程中存在的四种延迟,包括如下:
a.移动设备的传输时延:正如前文所提到的,每个计算任务都会通过无线信道上传到对应的边缘节点。根据香农公式,可以将MTi的上传速率ri,j表示为:
Figure BDA0002338351620000151
其中B表示信道带宽,pi表示MTi的发送功率,σ2表示移动设备的噪声功率,Ii,j表示小区内部的干扰功率,gi,j表示通信的信道增益。
注意到sc是通过光纤与MEC通信,两者之间的传输速率c远远大于MTi的上传速率ri,j,且两者之间的距离非常小,因此可以忽略sc与MEC的通信时延,用
Figure BDA0002338351620000152
来表示移动设备将任务qi上传到scj产生的时延:
Figure BDA0002338351620000153
上式中:MTi的上传速率ri,j,Si表示计算任务的大小。
b.边缘节点的计算时延:边缘节点成功接收从移动设备发送的完整计算任务后,MEC服务器会立刻执行卸载策略,将每个计算任务分成两部分,一部分由MEC服务器执行,另一部分由云服务器执行。本文假设可以在不考虑任务内容的情况下任意拆分每个计算任务,这对应于视频压缩和语音识别等场景[]。定义εi,j∈[0,1]为计算任务的划分比率,εi,j表示在MEC服务器执行的计算任务数据比例。用
Figure BDA0002338351620000164
表示第j个边缘节点给第i个移动设备分配的计算资源,因此,可以将在边缘节点执行任务产生的时延表示为:
Figure BDA0002338351620000161
上式中:Ci,j表示计算此任务需要的CPU计算周期。
c.边缘节点的传输时延:对于每个边缘节点,通常将通信模块和计算模块(CPU/GPU)分开。所述通信模块为收发器,所述计算模块为CPU/GPU。
因此,在边缘节点中,任务的计算和任务的传输可以并行执行。并且,所有边缘节点都通过不同的回程链路与云服务器连接,这些回程链路通常都配备着极高的带宽。实际上,回程链路是用户共享的,因此由于数据包到达的随机性,多用户调度,复杂的路由算法以及其他因素,很难对它的延迟进行建模。即提出边缘计算和云计算的最佳协同策略,假设资源调度策略和路由算法都已确定。因此,将Hj表示为与第j个边缘节点关联的每个设备的回程通信容量。因此,类似于(2)中的平均传输时延,平均回程传输时延也与传输的数据大小成正比,可以表示为:
Figure BDA0002338351620000162
其中
Figure BDA0002338351620000163
代表通过回程链路传输1比特大小的数据所需的时间,Si表示计算任务的大小,εi,j表示在MEC服务器执行的计算任务数据比例。
d.云服务器的计算时延:当云服务成功接收从边缘节点发送的任务数据,云服务器会分配可用的计算资源给每一个任务实现并行处理。(1-εi,j)si,jci,j表示执行卸载到云服务器的任务所需要的CPU数量,也就是计算资源。用
Figure BDA0002338351620000171
表示由第j个边缘节点提供服务的第i个移动设备分配到的云计算资源。因此,云服务器的计算时延可以表示为:
Figure BDA0002338351620000172
上式中:Ci,j表示计算此任务需要的CPU计算周期。
所述步骤4.针对时延分析结果,构建问题模型:
本发明分析了在云边协同***中存在的四种不同时延,包括:移动设备的传输时延
Figure BDA0002338351620000173
边缘节点的计算时延
Figure BDA0002338351620000174
边缘节点的传输时延
Figure BDA0002338351620000175
云服务器的计算时延
Figure BDA0002338351620000176
为了确定每一台设备所产生的全部时延,提出了如下几个合理的假设:
假设1:由于任务的卸载取决于每个任务的特定参数,例如其数据大小和计算所需的工作量,因此边缘节点中的MEC服务器只有在接收完任务数据后才能通过任务卸载策略对任务进行卸载。
假设2:在实际***中,任务计算可能依赖于特定的数据结构以及相邻数据之间的相关性,例如多媒体***中的视频分析。为了确保计算结果的可靠性,云服务器直到边缘节点与云服务器之间的传输结束后才能开始处理任务。
基于以上的假设,由第j个边缘节点提供服务的第i个移动设备所产生的全部时延可以表示为:
Figure BDA0002338351620000177
上式中:
Figure BDA0002338351620000178
表示移动设备将任务qi上传到scj产生的时延,
Figure BDA0002338351620000179
表示在边缘节点执行任务产生的时延,
Figure BDA00023383516200001710
表示边缘节点将任务上传到云服务器产生的时延,
Figure BDA00023383516200001711
表示计算任务在云服务器处理产生的时延。
本发明的目标是在有限的资源下通过任务卸载和计算资源分配,实现所有移动设备总时延的最小化,最后,目标可以表示为:
Figure BDA0002338351620000181
Figure BDA0002338351620000182
Figure BDA0002338351620000183
Figure BDA0002338351620000184
上式中:yi,j表示任务的缓存状态。
其中(7a)和(7b)表示分配给移动设备的边缘计算资源和云计算资源都不可能超过其本身最大的计算资源数。优化变量包括任务的卸载比率{εi,j},计算资源的分配情况
Figure BDA0002338351620000185
步骤5所述对构建的问题进行分解,包括:
为了解决问题Q1,首先要具体分析函数的结构特征。根据公式(2),移动设备的传输时延仅仅与传输的任务本身性质相关,没有额外的优化变量。同时,边缘节点到云服务器的传输时延,边缘节点的计算时延,云服务器的计算时延都与移动设备的传输时延无关。因此,可以将Q1分解成两部分:
Figure BDA0002338351620000186
本发明讨论的任务卸载和计算资源分配只影响后一部分的求解,因此可以将问题也进行划分:
Figure BDA0002338351620000187
其中
Figure BDA0002338351620000188
步骤6所述对构建的问题提出解决方案,包括:
(1)任务缓存策略。
在进行任务卸载决策之前,可以对问题Q2进行进一步的化简,利用上节提出的任务缓存策略求出缓存向量Yi,j=[y1,1,y1,2,...,yi,j],算法过程如图4所示:
假设移动设备请求任务Q的请求次数遵循泊松分布,满足
Figure BDA0002338351620000191
C表示任务的请求次数,λ表示单位时间任务的平均发生率。初始化时将向量组Y设为空,对于每个任务,首先根据泊松分布确定任务类型,随后判断任务是否存在于任务缓存表中,存在则由MEC服务器直接将执行结果返回给移动设备,yi,j设为1,反之则继续判断任务是否存在于任务历史记录表,如果存在于表中,同样不需要对任务进行处理,将yi,j设为1,直接返回执行结果,并将此任务存入任务缓存表,同时更新任务历史记录表,如果两个表都没有记录任务qi,则将yi,j设为0,如此遍历子任务空间,最后得到向量组Yi,j=[y1,1,y1,2,...,yi,j]。
利用向量组Yi,j=[y1,1,y1,2,...,yi,j]对Q2进行化简可得:
Figure BDA0002338351620000192
其中
Figure BDA0002338351620000199
(2)任务卸载策略。
考虑到问题Q3还是过于复杂,仍然无法直接求解。因此,先确定最优的任务卸载比率εi,j,在分析的过程中保持
Figure BDA0002338351620000193
的值不变。
可以通过分析计算延迟
Figure BDA0002338351620000194
和任务分配比εi,j之间的单调性来确定最优的划分比率
Figure BDA0002338351620000195
首先,根据公式
Figure BDA0002338351620000196
可以推断出
Figure BDA0002338351620000197
是单调递增的,随εi,j的增加而增加,因此,当εi,j∈[0,1],可以得到
Figure BDA0002338351620000198
其次,根据公式
Figure BDA0002338351620000201
可以推断出
Figure BDA0002338351620000202
是单调递减的,随εi,j的增加而减少,同样可以得到函数的取值范围
Figure BDA0002338351620000203
仔细观察公式
Figure BDA0002338351620000204
结合之前的讨论,可以发现,
Figure BDA0002338351620000205
会先随着εi,j的增加而减少,之后再随着εi,j的增加而增加。因此,当
Figure BDA0002338351620000206
时,得到
Figure BDA0002338351620000207
的最小值:
Figure BDA0002338351620000208
其中
Figure BDA0002338351620000209
Figure BDA00023383516200002010
为了便于说明,为每个移动设备定义两个重要的参数。
(2.1)归一化回程通信容量被定义为回程通信容量和边缘计算能力之比,即
Figure BDA00023383516200002011
(2.2)归一化云计算能力被定义为云计算能力与边缘计算能力之比,即
Figure BDA00023383516200002012
基于以上的定义,我们可以得到最优的任务卸载策略。在云边协同***中,最优的任务卸载策略
Figure BDA00023383516200002013
可以表示为:
Figure BDA00023383516200002014
上式中:μi,j表示回程通信容量和边缘计算能力之比,νi,j表示云计算能力与边缘计算能力之比。
公式(10)表明最优的任务卸载策略仅取决于两个比率:归一化的回程通信容量和归一化的云计算容量。此外,最佳任务拆分策略由这两个比率的调和平均值确定。可以很容易地验证,在边缘节点处理的任务数据的比例将随着μi,j或νi,j的增加而减少。因此,当移动设备被分配很少的边缘计算资源但同时又有足够的云计算时情况下,它应该将更多任务数据卸载到云服务器。相反,如果云计算资源非常稀缺,则应该让边缘节点处理更多的任务数据,对此,很容易可以得到一个结论:将更多的任务卸载到功能更强大的服务器上是我们减低移动设备整体时延的有效方案。
所述公式(10)存在的4种不同的***如下:
第1种:通信受限型***:边缘节点与云服务器拥有充足的计算资源,但通信容量却不足。
在这种情况下,
Figure BDA0002338351620000211
当一个边缘节点连接大量的移动设备,并且回程链路的容量不足时就会发生这种情况。可以将最优任务卸载比率进行如下化简:
Figure BDA0002338351620000212
公式(11)表示在这种情况下,最优任务卸载比率仅由归一化的回程通信容量确定,不受归一化的云计算容量的影响。在这种情况下,通信资源是减少每个设备的端到端延迟的主要瓶颈,因此相对来说,边缘计算能力和云计算能力大小不是很重要。考虑特殊的情况,当μi,j→0,最优的任务卸载比率
Figure BDA0002338351620000213
就为1,这表明所有的计算任务都是在边缘节点执行的,没有任务数据会被上传到云服务器执行。这符合我们的预期,即当回程链路的通信容量不足时,因为将任务卸载到云服务器会加剧网络拥塞并导致较长的传输延迟,所以在极端情况下,不会将任务卸载到云服务器。
第2种:计算受限型***:边缘节点和云服务器拥有充足的通信容量,但计算资源却不足。
在这种情况下,
Figure BDA0002338351620000214
可以将最优任务卸载比率进行如下化简:
Figure BDA0002338351620000215
根据公式,可以看出最优任务卸载比率仅由归一化的云计算能力确定。在这种情况下,由于回程通信容量相对充足,因此通信所产生的时延会变得非常小,计算时延的大小决定了移动设备整体时延的大小。注意,在这种情况下,边缘节点和云服务器可被视为一个整体,因此应根据它们的计算能力之比,即νi,j按比例拆分任务。更具体地说,如果边缘节点的计算能力大于云服务器的计算能力,即νi,j<1,则给边缘节点卸载更多的数据;否则,应将更多数据卸载到云中,在νi,j=1的特殊情况下,数据应在边缘节点和云服务器之间平均分配。
第3种:边缘主导型***:边缘节点给移动设备分配的计算资源远远多于云服务器分配的计算资源,即
Figure BDA0002338351620000221
可以得到νi,j→0,这种情况对应于大规模小蜂窝网络,其中云服务器为许多边缘节点提供服务。在这个***中,可以将最优任务卸载比率进行如下化简:
Figure BDA0002338351620000222
这表明应该在边缘节点上执行整个任务,而不必卸载到云服务器。因为当云计算能力远小于边缘节点的计算能力时,将任务数据卸载到云服务器可能会产生额外的传输时延并导致更长的计算时延。即使归一化的回程通信容量足够大,云计算时延仍然会对整体时延产生主要影响。因此,整个任务只需要卸载到边缘节点。
第4种:云端主导型***:云服务器拥有充足的计算资源,而边缘节点计算资源有限,即
Figure BDA0002338351620000223
可以得到νi,j→∞,这种***对应于云服务器计算能力强大,边缘节点计算能力弱的场景。将νi,j→∞代入公式可得:
Figure BDA0002338351620000224
根据公式,可以看出最优任务卸载比率仅由归一化的回程通信容量决定。如果回程通信容量Hj变大或者边缘节点的计算能力
Figure BDA0002338351620000225
变小,最优任务卸载比率也会随之减小。这是因为当νi,j→∞时,云端执行任务产生的时延与边缘节点执行任务产生的时延相比可以忽略不计。因此当μi,j<1时,回程传输产生的时延将主导该移动设备的整体时延,从而导致卸载到边缘侧处理的任务数据所占比例更大,即
Figure BDA0002338351620000226
否则,当μi,j>1时,更多的数据应该卸载到云服务器执行。
(3)计算资源分配策略。
首先,先将上一章节得到的最优任务卸载比率
Figure BDA0002338351620000231
代入公式,将计算时延
Figure BDA0002338351620000232
化简为:
Figure BDA0002338351620000233
问题Q3也可以重写为:
Figure BDA0002338351620000234
定理1:Q4是一个凸优化问题
证明:只需要证明目标函数和目标函数的限制条件都为凸函数,定理便得证。观察限制条件(7a)和(7b),可以看出,约束(7c)和(7d)是仿射的,这反映了它们的凸性。接下来只需要证明目标函数同样也是凸函数即可。
Figure BDA0002338351620000235
的海瑟矩阵可以表示为:
Figure BDA0002338351620000236
通过简单的数学计算,可以获得W所有的前主子式:
Figure BDA0002338351620000237
Figure BDA0002338351620000238
根据线性代数理论,当一个矩阵的前主子式都是正定的话,这个矩阵就是正定矩阵。由此得到,
Figure BDA0002338351620000241
是基于变量
Figure BDA0002338351620000242
Figure BDA0002338351620000243
的凸函数。而目标函数
Figure BDA0002338351620000244
是一系列凸函数之和,由此可以得出目标函数也是一个凸函数。定理1得证。
根据定理1,可以看出Q4满足KKT条件,随后利用拉格朗日算子求出云边协同***中计算资源的最优分配值:
Figure BDA0002338351620000245
其中
Figure BDA0002338351620000246
和θ是拉格朗日的最优变量。
实施例2
本发明利用MATLAB仿真工具,在云边协同的架构下,对所提出的基于云边协同的任务卸载和资源分配(Cloud-Edge-TORD)方案进行仿真验证。为了验证该方案的优良性,所提出的方案将会与另外三种方案进行比较,方案1:Only edge,任务全部卸载到MEC服务器上,全由MEC服务器处理;方案2:Only cloud,任务全部卸载到云服务器上,全由云服务器处理;方案3:Simple fixed cloud and edge,没有有效的任务分配策略,仅仅是简单地将任务分成两半,一半由MEC服务器执行,另一半由云服务器执行。
本实施例参数设置如下:
在仿真实验中,假设每个MEC服务器固定服务25台移动设备,每个MEC服务器的覆盖半径是500米。任务数据量大小和执行需要的计算周期数都遵循均匀分布,分布的范围si,j∈[0.2,1]Mbits,ci,j∈[500,2000]Hz。与sc相连的MEC服务器的计算能力
Figure BDA0002338351620000247
云服务器的计算能力Fc∈[200,600]GHz,移动设备的传输带宽B=20MHz,通信的信道增益和噪声功率分别为gi,j=10-5W,σ2=10-9,光纤的传输速率c=1Gbps,回程链路的容量Hj∈[5,50]Mbps。
本实施例性能分析如下:
如图5所示,图5是本发明云服务器计算能力增大时4种方案的时延对比图。图中给出了移动设备数量变化时,4种方案的时延对比。从图中可以看出,Only Edge方案的时延一直稳定在一个较小的范围内,这是因为每个MEC服务器固定服务25台移动设备,随着移动设备数量的增加,MEC服务器的数量同时按相应的比例增加,因此分配给每个移动设备的计算资源是大致不变的,从而时延会一直稳定在一个范围内;此外,当移动设备数量较少时,Only cloud方案的性能要优于Only edge和Simple fixed cloud and edge方案,这是因为当移动设备较少时,所需的边缘节点数量也较少,因此分配给每台移动设备的云计算资源总是会多于边缘计算资源,但是,随着边缘节点数量的增加,由于云计算资源是有限的,Only edge方案的性能又会优于Only cloud方案。尤其是当移动设备数量特别多的时候,Only edge方案比Simple fixed cloud and edge方案的性能都要更好,这表明应该更多的计算任务应该卸载在边缘侧而不是云端;在所有情况下,本发明所提出的Cloud-Edge-TORD方案性能都是最优的,因为通过执行云边协同策略,采用本发明所提出的任务卸载和资源分配策略,可以对边缘节点和云服务器的计算能力进行最优的调配,实现平均***时延的最小化。
不同方案的平均***时延比较,如图6所示,图6是本发明云服务器计算能力变小时4种方案的时延对比图。给出了云服务器计算能力变化时,4种方案的时延对比。当云服务器的计算能力增大时,采用Only cloud方案的***产生的时延将大大减少。在这种情况下,将任务卸载到云服务器是比将任务卸载到MEC服务器上更好的选择,这样能够有效得减少大量时延。相反,当云服务器的计算能力变小时,Only edge方案的性能将优于Only cloud方案。与图5相似,在所有方案中,本发明所提出的Cloud-Edge-TORD方案始终是最优的。

Claims (10)

1.基于云边协同的LTE电力无线专网任务卸载和资源分配方法,其特征是:在云边协同***中存在的四种不同时延,计算出设备的全部时延并为所有移动设备总时延最小化的问题建立为数学模型;分四种不同的***场景考虑任务卸载方案,并求解出云边协同***中计算资源的最优分配值;包括以下步骤:
步骤1.建立云边协同***;
步骤2.建立MEC缓存模型;
步骤3.对云边协同***中存在的时延进行分析;
步骤4.针对时延分析结果,构建问题模型;
步骤5.对构建的问题提出分解;
步骤6.对构建的问题提出解决方案。
2.根据权利要求1所述的基于云边协同的LTE电力无线专网任务卸载和资源分配方法,其特征是:步骤1所述建立云边协同***,云边协同***由中心云服务器和m个SCeNB构成,用集合M={1,2,...,J}表示;每个SCeNB都部署着MEC服务器,MEC服务器将有限的资源用于数据处理,缓存和存储;每个SCeNB和MEC服务器的组合称为边缘节点;在第j个SCeNB的覆盖区域内,存在由集合χj表示的xj个移动设备,每个移动设备都具有不同时延要求的计算任务;假设每个用户都已经与一个基站相连接,具体连接关系通过用户联通策略确定;每个移动设备都通过无线信道连接相应的基站,并且边缘节点通过不同的回程链路将数据传输到云服务器;在***中,假设每个计算任务在边缘节点和云服务器上都能够进行处理;根据[1]中的模型,假设所有任务都具有相同的类型,并且同时到达,用qi,j=(si,j,ci,j)表示连接着第j个边缘节点的第i个移动设备所产生的计算任务,其中si,j表示计算任务的大小,ci,j表示计算此任务需要的CPU计算周期;用N表示该***在某一时间段内请求的总任务数;将第j个边缘节点中的MEC服务器的计算能力和云服务器的计算能力分别定义为
Figure RE-FDA0002569961380000011
和Fc;通过虚拟机技术将每个MEC服务器和云服务器的计算资源分配给移动设备。
3.根据权利要求1所述的基于云边协同的LTE电力无线专网任务卸载和资源分配方法,其特征是:步骤2所述建立MEC缓存模型,包括:对于每个任务,将MEC服务器的缓存向量定义为Yi,j=[y1,1,y1,2,...,yi,j];如果yi,j=1,则表示MEC服务器已缓存任务的计算结果,而yi,j=0则表示没有缓存对应的任务结果;当yi,j=1时,MEC服务器直接将计算结果传输到移动设备,无需进行计算;由于SCeNB的传输功率大于移动设备的传输功率,计算结果的数据量小于任务本身的数据量,忽略无线下行链路上的传输延迟,认为MEC缓存方案所需的传输延迟为0;MEC缓存模型将频繁被请求任务的结果直接返回给移动设备,减少时延和降低能耗。
4.根据权利要求1所述的基于云边协同的LTE电力无线专网任务卸载和资源分配方法,其特征是:步骤3所述云边协同***中存在的时延分析,包括:在云-边-端的任务分配模型中,假设每个移动设备由于其有限的计算能力和电量,移动设备发送任务请求,判断此任务的结果是否存在于缓存中;如果存在,则直接返回任务结果;如果不存在,则此移动设备会将任务上传至边缘节点;再由对应的边缘节点确定任务是由边缘节点独自处理还是由边缘节点与云服务器协同处理。
5.根据权利要求4所述的基于云边协同的LTE电力无线专网任务卸载和资源分配方法,其特征是:所述如果不存在,则此移动设备会将任务上传至边缘节点,所述边缘节点同时也负责确定每个任务在云边的卸载比例。
6.根据权利要求1所述的基于云边协同的LTE电力无线专网任务卸载和资源分配方法,其特征是:步骤3所述云边协同***中存在的时延分析,具体包括以下步骤:
步骤(1)移动设备向所连接的边缘节点发送对应的任务请求,用于判断此条数据是否是自己想要的,边缘节点判断这个任务的结果是否存在于缓存中;如果存在,则直接返回任务结果,任务处理结束;反之,则继续下一步;
步骤(2)移动设备直接通过无线信道将整个时延敏感任务上传到连接的边缘节点;
步骤(3)位于每个边缘节点的MEC服务器将接收到的任务分为两部分,其中一部分留在MEC服务器上,另一部分则卸载到云服务器上;
步骤(4)MEC服务器将其可用的计算资源分配给每个计算任务,同时通过回程链路将部分数据上传到云服务器;
步骤(5)云服务器通过将计算资源分配给相应的计算任务,从而实现并行的计算;
步骤(6)由每个边缘节点收集计算结果,先通过任务缓存策略对计算结果进行缓存,再将计算结果返回给每个移动设备。
7.根据权利要求6所述的基于云边协同的LTE电力无线专网任务卸载和资源分配方法,其特征是:所述计算过程中存在的延迟,包括:
a.移动设备的传输时延:根据香农公式,将MTi的上传速率ri,j表示为:
Figure RE-FDA0002569961380000031
其中B表示信道带宽,pi表示MTi的发送功率,σ2表示移动设备的噪声功率,Ii,j表示小区内部的干扰功率,gi,j表示通信的信道增益;
sc是通过光纤与MEC通信,两者之间的传输速率c远远大于MTi的上传速率ri,j,且两者之间的距离非常小,忽略sc与MEC的通信时延,用
Figure RE-FDA0002569961380000032
来表示移动设备将任务qi上传到scj产生的时延:
Figure RE-FDA0002569961380000033
上式中:MTi的上传速率ri,j,Si表示计算任务的大小;
b.边缘节点的计算时延:边缘节点成功接收从移动设备发送的完整计算任务后,MEC服务器会立刻执行卸载策略,将每个计算任务分成两部分,一部分由MEC服务器执行,另一部分由云服务器执行;假设在不考虑任务内容的情况下任意拆分每个计算任务,对应于视频压缩和语音识别等场景[];定义εi,j∈[0,1]为计算任务的划分比率,εi,j表示在MEC服务器执行的计算任务数据比例;用
Figure RE-FDA0002569961380000034
表示第j个边缘节点给第i个移动设备分配的计算资源,将在边缘节点执行任务产生的时延表示为:
Figure RE-FDA0002569961380000035
上式中:Ci,j表示计算此任务需要的CPU计算周期;
c.边缘节点的传输时延:对于每个边缘节点,将通信模块和计算模块(CPU/GPU)分开;所述通信模块为收发器,所述计算模块为CPU/GPU;
在边缘节点中,任务的计算和任务的传输并行执行;所有边缘节点都通过不同的回程链路与云服务器连接;提出边缘计算和云计算的最佳协同策略,假设资源调度策略和路由算法都已确定;将Hj表示为与第j个边缘节点关联的每个设备的回程通信容量;平均回程传输时延与传输的数据大小成正比,表示为:
Figure RE-FDA0002569961380000041
其中
Figure RE-FDA0002569961380000042
代表通过回程链路传输1比特大小的数据所需的时间,Si表示计算任务的大小,εi,j表示在MEC服务器执行的计算任务数据比例;
d.云服务器的计算时延:当云服务成功接收从边缘节点发送的任务数据,云服务器会分配可用的计算资源给每一个任务实现并行处理;(1-εi,j)si,jci,j表示执行卸载到云服务器的任务所需要的CPU数量,即计算资源;用
Figure RE-FDA0002569961380000043
表示由第j个边缘节点提供服务的第i个移动设备分配到的云计算资源;云服务器的计算时延表示为:
Figure RE-FDA0002569961380000044
上式中:Ci,j表示计算此任务需要的CPU计算周期。
8.根据权利要求1所述的基于云边协同的LTE电力无线专网任务卸载和资源分配方法,其特征是:步骤1中所述云边协同***中存在的不同时延,包括:移动设备的传输时延、边缘节点的计算时延、边缘节点的传输时延及云服务器的计算时延;每台设备所产生的全部时延,包括:
假设1:由于任务的卸载取决于每个任务的特定参数;
假设2:任务计算依赖特定的数据结构以及相邻数据之间的相关性,云服务器直到边缘节点与云服务器之间的传输结束后开始处理任务;
基于以上的假设,由第j个边缘节点提供服务的第i个移动设备所产生的全部时延可以表示为:
Figure RE-FDA0002569961380000045
上式中:
Figure RE-FDA0002569961380000046
表示移动设备将任务qi上传到scj产生的时延,
Figure RE-FDA0002569961380000047
表示在边缘节点执行任务产生的时延,
Figure RE-FDA0002569961380000051
表示边缘节点将任务上传到云服务器产生的时延,
Figure RE-FDA0002569961380000052
表示计算任务在云服务器处理产生的时延;
在有限的资源下通过任务卸载和计算资源分配,实现所有移动设备总时延的最小化,目标表示为:
Q1:
Figure RE-FDA0002569961380000053
Figure RE-FDA0002569961380000054
Figure RE-FDA0002569961380000055
Figure RE-FDA0002569961380000056
上式中:yi,j表示任务的缓存状态;
其中(7a)和(7b)表示分配给移动设备的边缘计算资源和云计算资源都不可能超过其本身最大的计算资源数;优化变量包括任务的卸载比率{εi,j},计算资源的分配情况
Figure RE-FDA0002569961380000057
9.根据权利要求1所述的基于云边协同的LTE电力无线专网任务卸载和资源分配方法,其特征是:步骤5所述对构建的问题进行分解,包括:
将Q1分解成两部分:
Figure RE-FDA0002569961380000058
任务卸载和计算资源分配只影响后一部分的求解,将问题进行划分:
Q2:
Figure RE-FDA0002569961380000059
其中
Figure RE-FDA0002569961380000061
10.根据权利要求1所述的基于云边协同的LTE电力无线专网任务卸载和资源分配方法,其特征是:步骤6中所述对构建的问题提出解决方案,包括:
(1)任务缓存策略:在进行任务卸载决策之前,对问题Q2进一步化简,利用任务缓存策略求出缓存向量Yi,j=[y1,1,y1,2,...,yi,j],算法过程如图4所示:
假设移动设备请求任务Q的请求次数遵循泊松分布,满足
Figure RE-FDA0002569961380000062
C表示任务的请求次数,λ表示单位时间任务的平均发生率;初始化时将向量组Y设为空,对于每个任务,首先根据泊松分布确定任务类型,随后判断任务是否存在于任务缓存表中,存在则由MEC服务器直接将执行结果返回给移动设备,yi,j设为1,反之则继续判断任务是否存在于任务历史记录表;如果存在于表中,将yi,j设为1,直接返回执行结果,并将此任务存入任务缓存表,同时更新任务历史记录表;如果两个表都没有记录任务qi,则将yi,j设为0,如此遍历子任务空间,最后得到向量组Yi,j=[y1,1,y1,2,...,yi,j];
利用向量组Yi,j=[y1,1,y1,2,...,yi,j]对Q2进行化简可得:
Q3:
Figure RE-FDA0002569961380000063
其中
Figure RE-FDA0002569961380000064
(2)任务卸载策略:确定最优的任务卸载比率εi,j,在分析的过程中保持
Figure RE-FDA0002569961380000065
的值不变;
通过分析计算延迟
Figure RE-FDA0002569961380000066
和任务分配比εi,j之间的单调性确定最优的划分比率
Figure RE-FDA0002569961380000067
首先,根据公式
Figure RE-FDA0002569961380000068
推断出
Figure RE-FDA0002569961380000069
是单调递增的,随εi,j的增加而增加;当εi,j∈[0,1],得到
Figure RE-FDA0002569961380000071
其次,根据公式
Figure RE-FDA0002569961380000072
推断出
Figure RE-FDA0002569961380000073
是单调递减的,随εi,j的增加而减少,同样得到函数的取值范围
Figure RE-FDA0002569961380000074
观察公式
Figure RE-FDA0002569961380000075
结合之前的讨论,发现
Figure RE-FDA0002569961380000076
先随着εi,j的增加而减少,再随着εi,j的增加而增加;当
Figure RE-FDA0002569961380000077
时,得到
Figure RE-FDA0002569961380000078
的最小值:
Figure RE-FDA0002569961380000079
其中
Figure RE-FDA00025699613800000710
每个移动设备定义两个重要的参数,包括:
(2.1)归一化回程通信容量被定义为回程通信容量和边缘计算能力之比,即
Figure RE-FDA00025699613800000711
(2.2)归一化云计算能力被定义为云计算能力与边缘计算能力之比,即
Figure RE-FDA00025699613800000712
基于以上的定义,得到最优的任务卸载策略;在云边协同***中,最优的任务卸载策略
Figure RE-FDA00025699613800000713
表示为:
Figure RE-FDA00025699613800000714
上式中:μi,j表示回程通信容量和边缘计算能力之比,νi,j表示云计算能力与边缘计算能力之比;
所述公式(10)存在的不同的***如下:
第1种:通信受限型***:边缘节点与云服务器拥有充足的计算资源,但通信容量不足;
在这种情况下,
Figure RE-FDA0002569961380000081
当一个边缘节点连接大量的移动设备,并且回程链路的容量不足时发生这种情况,将最优任务卸载比率进行化简:
Figure RE-FDA0002569961380000082
公式(11)表示在这种情况下,最优任务卸载比率仅由归一化的回程通信容量确定,不受归一化的云计算容量的影响;在这种情况下,通信资源减少每个设备的端到端延迟的主要瓶颈;当μi,j→0,最优的任务卸载比率
Figure RE-FDA0002569961380000083
为1,所有的计算任务都是在边缘节点执行;
第2种:计算受限型***:边缘节点和云服务器拥有充足的通信容量,但计算资源不足;
在这种情况下,
Figure RE-FDA0002569961380000084
将最优任务卸载比率进行化简:
Figure RE-FDA0002569961380000085
最优任务卸载比率仅由归一化的云计算能力确定,在这种情况下,由于回程通信容量相对充足,通信所产生的时延变得小,计算时延的大小决定移动设备整体时延的大小;在这种情况下,边缘节点和云服务器被视为一个整体,根据它们的计算能力之比,即νi,j按比例拆分任务;如果边缘节点的计算能力大于云服务器的计算能力,即νi,j<1,则给边缘节点卸载更多的数据;否则,将更多数据卸载到云中,在νi,j=1的特殊情况下,数据在边缘节点和云服务器之间平均分配;
第3种:边缘主导型***:边缘节点给移动设备分配的计算资源远远多于云服务器分配的计算资源,即
Figure RE-FDA0002569961380000086
得到νi,j→0,这种情况对应于大规模小蜂窝网络,其中云服务器为许多边缘节点提供服务;在这个***中,将最优任务卸载比率进行如下化简:
Figure RE-FDA0002569961380000091
表明应该在边缘节点上执行整个任务,整个任务只需要卸载到边缘节点;
第4种:云端主导型***:云服务器拥有充足的计算资源,而边缘节点计算资源有限,即
Figure RE-FDA0002569961380000092
得到νi,j→∞,这种***对应于云服务器计算能力强大,边缘节点计算能力弱的场景;将νi,j→∞代入公式可得:
Figure RE-FDA0002569961380000093
根据公式,看出最优任务卸载比率仅由归一化的回程通信容量决定;如果回程通信容量Hj变大或者边缘节点的计算能力
Figure RE-FDA0002569961380000094
变小,最优任务卸载比率也会随之减小;因为当νi,j→∞时,云端执行任务产生的时延与边缘节点执行任务产生的时延相比可以忽略不计;因此当μi,j<1时,回程传输产生的时延将主导该移动设备的整体时延,从而导致卸载到边缘侧处理的任务数据所占比例更大,即
Figure RE-FDA0002569961380000095
否则,当μi,j>1时,更多的数据应该卸载到云服务器执行;
(3)计算资源分配策略:将最优任务卸载比率
Figure RE-FDA0002569961380000096
代入公式,将计算时延
Figure RE-FDA0002569961380000097
化简为:
Figure RE-FDA0002569961380000098
问题Q3重写为:
Q4:
Figure RE-FDA0002569961380000099
s.t.(7a),(7b)
定理1:Q4是一个凸优化问题;
证明:只需要证明目标函数和目标函数的限制条件都为凸函数,定理便得证;观察限制条件(7a)和(7b),可以看出,约束(7c)和(7d)是仿射的,反映了它们的凸性;下面证明目标函数同样也是凸函数:
Figure RE-FDA0002569961380000101
的海瑟矩阵表示为:
Figure RE-FDA0002569961380000102
通过数学计算,获得W所有的前主子式:
Figure RE-FDA0002569961380000103
Figure RE-FDA0002569961380000104
根据线性代数理论,当一个矩阵的前主子式都是正定的话,这个矩阵就是正定矩阵;得到,
Figure RE-FDA0002569961380000105
是基于变量
Figure RE-FDA0002569961380000106
Figure RE-FDA0002569961380000107
的凸函数;而目标函数
Figure RE-FDA0002569961380000108
是一系列凸函数之和,得出目标函数也是一个凸函数;定理1得证;
根据定理1,得出Q4满足KKT条件,利用拉格朗日算子求出云边协同***中计算资源的最优分配值:
Figure RE-FDA0002569961380000109
其中
Figure RE-FDA00025699613800001010
和θ是拉格朗日的最优变量。
CN201911365711.8A 2019-12-26 2019-12-26 基于云边协同的lte电力无线专网任务卸载和资源分配方法 Active CN111585916B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911365711.8A CN111585916B (zh) 2019-12-26 2019-12-26 基于云边协同的lte电力无线专网任务卸载和资源分配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911365711.8A CN111585916B (zh) 2019-12-26 2019-12-26 基于云边协同的lte电力无线专网任务卸载和资源分配方法

Publications (2)

Publication Number Publication Date
CN111585916A true CN111585916A (zh) 2020-08-25
CN111585916B CN111585916B (zh) 2023-08-01

Family

ID=72124227

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911365711.8A Active CN111585916B (zh) 2019-12-26 2019-12-26 基于云边协同的lte电力无线专网任务卸载和资源分配方法

Country Status (1)

Country Link
CN (1) CN111585916B (zh)

Cited By (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111988805A (zh) * 2020-08-28 2020-11-24 重庆邮电大学 一种面向可靠时延保障的端边协同方法
CN112039992A (zh) * 2020-09-01 2020-12-04 平安资产管理有限责任公司 基于云计算架构的模型管理方法及***
CN112118135A (zh) * 2020-09-14 2020-12-22 南昌市言诺科技有限公司 云边协同架构工业互联网平台的最小资源配置方法和装置
CN112148492A (zh) * 2020-09-28 2020-12-29 南京大学 一种考虑多用户移动性的服务部署和资源分配方法
CN112217879A (zh) * 2020-09-24 2021-01-12 江苏方天电力技术有限公司 一种基于配电物联网的边缘计算技术和云边协同方法
CN112256413A (zh) * 2020-10-16 2021-01-22 国网电子商务有限公司 基于物联网的边缘计算任务的调度方法和装置
CN112365658A (zh) * 2020-09-21 2021-02-12 国网江苏省电力有限公司信息通信分公司 一种基于边缘计算的充电桩资源分配方法
CN112437156A (zh) * 2020-11-23 2021-03-02 兰州理工大学 一种基于mec-d2d的分布式协同缓存方法
CN112468547A (zh) * 2020-11-13 2021-03-09 广州中国科学院沈阳自动化研究所分所 一种基于区域化的工业边缘计算任务云协同卸载方法
CN112491957A (zh) * 2020-10-27 2021-03-12 西安交通大学 一种边缘网络环境下的分布式计算卸载方法及***
CN112512061A (zh) * 2020-11-05 2021-03-16 上海大学 一种多接入边缘计算***中的任务卸载与分派方法
CN112506656A (zh) * 2020-12-08 2021-03-16 深圳市国电科技通信有限公司 一种基于配电物联网计算任务的分配方法
CN112650338A (zh) * 2021-01-22 2021-04-13 褚东花 一种基于物联网节能环保林业育苗检测***和方法
CN112689303A (zh) * 2020-12-28 2021-04-20 西安电子科技大学 一种边云协同资源联合分配方法、***及应用
CN112702401A (zh) * 2020-12-15 2021-04-23 北京邮电大学 一种电力物联网多任务协同分配方法及装置
CN112749012A (zh) * 2021-01-15 2021-05-04 北京智芯微电子科技有限公司 终端设备的数据处理方法、装置、***及存储介质
CN112861371A (zh) * 2021-03-02 2021-05-28 东南大学 一种基于边缘计算的钢铁行业云排产方法
CN112860407A (zh) * 2021-03-02 2021-05-28 东南大学 一种云边协作的序列依赖流水车间任务调度执行优化方法
CN112887785A (zh) * 2021-01-13 2021-06-01 浙江传媒学院 一种基于时延优化的远程视频叠加交互计算方法
CN112996056A (zh) * 2021-03-02 2021-06-18 国网江苏省电力有限公司信息通信分公司 一种云边协同下时延最优化的计算任务卸载方法及装置
CN112989251A (zh) * 2021-03-19 2021-06-18 浙江传媒学院 一种基于协同计算的移动Web增强现实3D模型数据服务方法
CN113015217A (zh) * 2021-02-07 2021-06-22 重庆邮电大学 一种基于边云协同低成本的在线多功能业务的计算卸载方法
CN113037877A (zh) * 2021-05-26 2021-06-25 深圳大学 云边端架构下时空数据及资源调度的优化方法
CN113114714A (zh) * 2020-11-03 2021-07-13 吉林大学 一种大规模任务卸载到5g边缘服务器的节能方法及***
CN113128681A (zh) * 2021-04-08 2021-07-16 天津大学 一种多边缘设备辅助的通用cnn推理加速***
CN113192322A (zh) * 2021-03-19 2021-07-30 东北大学 一种基于云边协同的高速公路交通流量计数方法
CN113254095A (zh) * 2021-04-25 2021-08-13 西安电子科技大学 云边结合平台的任务卸载、调度与负载均衡***、方法
CN113301151A (zh) * 2021-05-24 2021-08-24 南京大学 基于云边协同的低时延容器化任务部署方法及设备
CN113315659A (zh) * 2021-05-26 2021-08-27 江西鑫铂瑞科技有限公司 一种面向智能工厂的任务协同规划方法及***
CN113315669A (zh) * 2021-07-28 2021-08-27 江苏电力信息技术有限公司 基于云边协同的吞吐量优化的机器学习推断任务部署方法
CN113361113A (zh) * 2021-06-09 2021-09-07 南京工程学院 一种能耗可调的高铁转向架孪生数据分配方法
CN113395679A (zh) * 2021-05-25 2021-09-14 安徽大学 一种无人机边缘服务器的资源和任务分配优化***
CN113553146A (zh) * 2021-04-25 2021-10-26 北京航空航天大学 一种基于云边协同计算任务并合调度方法
CN113592077A (zh) * 2021-08-05 2021-11-02 哈尔滨工业大学 一种面向边缘智能的云边端dnn协同推理加速方法
CN113778685A (zh) * 2021-09-16 2021-12-10 上海天麦能源科技有限公司 一种用于城市燃气管网边缘计算***的卸载方法
CN113961264A (zh) * 2021-09-30 2022-01-21 河海大学 一种面向视频监控云边协同的智能卸载算法与***
CN113961266A (zh) * 2021-10-14 2022-01-21 湘潭大学 一种边云协同下基于双边匹配的任务卸载方法
CN114051266A (zh) * 2021-11-08 2022-02-15 首都师范大学 基于移动云-边缘计算的无线体域网任务卸载方法
CN114143355A (zh) * 2021-12-08 2022-03-04 华北电力大学 一种电力物联网低时延安全云边端协同方法
CN114301907A (zh) * 2021-11-18 2022-04-08 北京邮电大学 云计算网络中的业务处理方法、***、装置及电子设备
CN114302373A (zh) * 2021-12-30 2022-04-08 东南大学 一种基于计算可靠性的v2v通信中的卸载决策和功率分配方法
CN114384866A (zh) * 2020-10-21 2022-04-22 沈阳中科数控技术股份有限公司 一种基于分布式深度神经网络框架的数据划分方法
CN114637608A (zh) * 2022-05-17 2022-06-17 之江实验室 一种计算任务分配和更新方法、终端及网络设备
CN114745389A (zh) * 2022-05-19 2022-07-12 电子科技大学 移动边缘计算***的计算卸载方法
CN114785777A (zh) * 2022-03-04 2022-07-22 杭州未名信科科技有限公司 一种用于传输资源的端-边-云计算最优解耦方法
CN114844900A (zh) * 2022-05-05 2022-08-02 中南大学 一种基于不确定需求下的边云资源协作方法
CN114841952A (zh) * 2022-04-28 2022-08-02 华南理工大学 一种云边协同的早产儿视网膜病变检测***及检测方法
CN114928653A (zh) * 2022-04-19 2022-08-19 西北工业大学 面向群智感知的数据处理方法及装置
CN114928607A (zh) * 2022-03-18 2022-08-19 南京邮电大学 面向多边接入边缘计算的协同任务卸载方法
CN114945025A (zh) * 2022-04-25 2022-08-26 国网经济技术研究院有限公司 面向电网中云边协同的价格驱动正和博弈卸载方法及***
CN115002113A (zh) * 2022-05-26 2022-09-02 南京邮电大学 一种移动基站边缘计算力资源调度方法、***、电子设备
CN115102974A (zh) * 2021-12-08 2022-09-23 湘潭大学 基于双边匹配博弈的协同内容缓存方法
CN115225675A (zh) * 2022-07-18 2022-10-21 国网信息通信产业集团有限公司 一种基于边缘计算的充电场站智能运维的***
CN115297013A (zh) * 2022-08-04 2022-11-04 重庆大学 一种基于边缘协作的任务卸载及服务缓存联合优化方法
CN115426409A (zh) * 2022-08-25 2022-12-02 深圳清华大学研究院 基于主动缓存mec的通信资源分配与任务卸载方法
CN116016522A (zh) * 2023-02-13 2023-04-25 广东电网有限责任公司中山供电局 一种云边端协同的新能源终端监控架构
CN117240631A (zh) * 2023-11-15 2023-12-15 成都超算中心运营管理有限公司 基于消息中间件连接异构工业设备与云平台的方法及***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108541027A (zh) * 2018-04-24 2018-09-14 南京邮电大学 一种基于边缘云网络的通信计算资源置换方法
CN109684075A (zh) * 2018-11-28 2019-04-26 深圳供电局有限公司 一种基于边缘计算和云计算协同进行计算任务卸载的方法
CN109814951A (zh) * 2019-01-22 2019-05-28 南京邮电大学 移动边缘计算网络中任务卸载及资源分配的联合优化方法
CN110035410A (zh) * 2019-03-07 2019-07-19 中南大学 一种软件定义车载边缘网络中联合资源分配和计算卸载的方法及***

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108541027A (zh) * 2018-04-24 2018-09-14 南京邮电大学 一种基于边缘云网络的通信计算资源置换方法
CN109684075A (zh) * 2018-11-28 2019-04-26 深圳供电局有限公司 一种基于边缘计算和云计算协同进行计算任务卸载的方法
CN109814951A (zh) * 2019-01-22 2019-05-28 南京邮电大学 移动边缘计算网络中任务卸载及资源分配的联合优化方法
CN110035410A (zh) * 2019-03-07 2019-07-19 中南大学 一种软件定义车载边缘网络中联合资源分配和计算卸载的方法及***

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
张海波等: "超密集网络中基于移动边缘计算的任务卸载和资源优化", 《电子与信息学报》, no. 05, 14 May 2019 (2019-05-14) *
谢人超等: "移动边缘计算卸载技术综述", 《通信学报》, no. 11, 25 November 2018 (2018-11-25) *

Cited By (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111988805B (zh) * 2020-08-28 2022-03-29 重庆邮电大学 一种面向可靠时延保障的端边协同方法
CN111988805A (zh) * 2020-08-28 2020-11-24 重庆邮电大学 一种面向可靠时延保障的端边协同方法
CN112039992A (zh) * 2020-09-01 2020-12-04 平安资产管理有限责任公司 基于云计算架构的模型管理方法及***
CN112118135A (zh) * 2020-09-14 2020-12-22 南昌市言诺科技有限公司 云边协同架构工业互联网平台的最小资源配置方法和装置
CN112365658A (zh) * 2020-09-21 2021-02-12 国网江苏省电力有限公司信息通信分公司 一种基于边缘计算的充电桩资源分配方法
CN112217879A (zh) * 2020-09-24 2021-01-12 江苏方天电力技术有限公司 一种基于配电物联网的边缘计算技术和云边协同方法
CN112217879B (zh) * 2020-09-24 2023-08-01 江苏方天电力技术有限公司 一种基于配电物联网的边缘计算技术和云边协同方法
CN112148492B (zh) * 2020-09-28 2023-07-28 南京大学 一种考虑多用户移动性的服务部署和资源分配方法
CN112148492A (zh) * 2020-09-28 2020-12-29 南京大学 一种考虑多用户移动性的服务部署和资源分配方法
CN112256413A (zh) * 2020-10-16 2021-01-22 国网电子商务有限公司 基于物联网的边缘计算任务的调度方法和装置
CN114384866A (zh) * 2020-10-21 2022-04-22 沈阳中科数控技术股份有限公司 一种基于分布式深度神经网络框架的数据划分方法
CN112491957A (zh) * 2020-10-27 2021-03-12 西安交通大学 一种边缘网络环境下的分布式计算卸载方法及***
CN113114714A (zh) * 2020-11-03 2021-07-13 吉林大学 一种大规模任务卸载到5g边缘服务器的节能方法及***
CN113114714B (zh) * 2020-11-03 2022-03-01 吉林大学 一种大规模任务卸载到5g边缘服务器的节能方法及***
CN112512061A (zh) * 2020-11-05 2021-03-16 上海大学 一种多接入边缘计算***中的任务卸载与分派方法
CN112512061B (zh) * 2020-11-05 2022-11-22 上海大学 一种多接入边缘计算***中的任务卸载与分派方法
CN112468547B (zh) * 2020-11-13 2023-04-07 广州中国科学院沈阳自动化研究所分所 一种基于区域化的工业边缘计算任务云协同卸载方法
CN112468547A (zh) * 2020-11-13 2021-03-09 广州中国科学院沈阳自动化研究所分所 一种基于区域化的工业边缘计算任务云协同卸载方法
CN112437156A (zh) * 2020-11-23 2021-03-02 兰州理工大学 一种基于mec-d2d的分布式协同缓存方法
CN112506656A (zh) * 2020-12-08 2021-03-16 深圳市国电科技通信有限公司 一种基于配电物联网计算任务的分配方法
CN112702401A (zh) * 2020-12-15 2021-04-23 北京邮电大学 一种电力物联网多任务协同分配方法及装置
CN112702401B (zh) * 2020-12-15 2022-01-04 北京邮电大学 一种电力物联网多任务协同分配方法及装置
CN112689303A (zh) * 2020-12-28 2021-04-20 西安电子科技大学 一种边云协同资源联合分配方法、***及应用
CN112689303B (zh) * 2020-12-28 2022-07-22 西安电子科技大学 一种边云协同资源联合分配方法、***及应用
CN112887785A (zh) * 2021-01-13 2021-06-01 浙江传媒学院 一种基于时延优化的远程视频叠加交互计算方法
CN112887785B (zh) * 2021-01-13 2023-05-02 浙江传媒学院 一种基于远程视频叠加交互计算的时延优化方法
CN112749012A (zh) * 2021-01-15 2021-05-04 北京智芯微电子科技有限公司 终端设备的数据处理方法、装置、***及存储介质
CN112749012B (zh) * 2021-01-15 2024-05-28 北京智芯微电子科技有限公司 终端设备的数据处理方法、装置、***及存储介质
CN112650338A (zh) * 2021-01-22 2021-04-13 褚东花 一种基于物联网节能环保林业育苗检测***和方法
CN113015217B (zh) * 2021-02-07 2022-05-20 重庆邮电大学 一种基于边云协同低成本的在线多功能业务的计算卸载方法
CN113015217A (zh) * 2021-02-07 2021-06-22 重庆邮电大学 一种基于边云协同低成本的在线多功能业务的计算卸载方法
CN112860407A (zh) * 2021-03-02 2021-05-28 东南大学 一种云边协作的序列依赖流水车间任务调度执行优化方法
CN112861371A (zh) * 2021-03-02 2021-05-28 东南大学 一种基于边缘计算的钢铁行业云排产方法
CN112860407B (zh) * 2021-03-02 2024-06-21 东南大学 一种云边协作的序列依赖流水车间任务调度执行优化方法
CN112996056A (zh) * 2021-03-02 2021-06-18 国网江苏省电力有限公司信息通信分公司 一种云边协同下时延最优化的计算任务卸载方法及装置
CN113192322A (zh) * 2021-03-19 2021-07-30 东北大学 一种基于云边协同的高速公路交通流量计数方法
CN112989251A (zh) * 2021-03-19 2021-06-18 浙江传媒学院 一种基于协同计算的移动Web增强现实3D模型数据服务方法
CN113128681B (zh) * 2021-04-08 2023-05-12 天津大学 一种多边缘设备辅助的通用cnn推理加速***
CN113128681A (zh) * 2021-04-08 2021-07-16 天津大学 一种多边缘设备辅助的通用cnn推理加速***
CN113553146A (zh) * 2021-04-25 2021-10-26 北京航空航天大学 一种基于云边协同计算任务并合调度方法
CN113254095A (zh) * 2021-04-25 2021-08-13 西安电子科技大学 云边结合平台的任务卸载、调度与负载均衡***、方法
CN113301151B (zh) * 2021-05-24 2023-01-06 南京大学 基于云边协同的低时延容器化任务部署方法及设备
CN113301151A (zh) * 2021-05-24 2021-08-24 南京大学 基于云边协同的低时延容器化任务部署方法及设备
CN113395679A (zh) * 2021-05-25 2021-09-14 安徽大学 一种无人机边缘服务器的资源和任务分配优化***
CN113395679B (zh) * 2021-05-25 2022-08-05 安徽大学 一种无人机边缘服务器的资源和任务分配优化***
CN113037877A (zh) * 2021-05-26 2021-06-25 深圳大学 云边端架构下时空数据及资源调度的优化方法
CN113315659A (zh) * 2021-05-26 2021-08-27 江西鑫铂瑞科技有限公司 一种面向智能工厂的任务协同规划方法及***
CN113361113A (zh) * 2021-06-09 2021-09-07 南京工程学院 一种能耗可调的高铁转向架孪生数据分配方法
CN113315669A (zh) * 2021-07-28 2021-08-27 江苏电力信息技术有限公司 基于云边协同的吞吐量优化的机器学习推断任务部署方法
CN113592077B (zh) * 2021-08-05 2024-04-05 哈尔滨工业大学 一种面向边缘智能的云边端dnn协同推理加速方法
CN113592077A (zh) * 2021-08-05 2021-11-02 哈尔滨工业大学 一种面向边缘智能的云边端dnn协同推理加速方法
CN113778685A (zh) * 2021-09-16 2021-12-10 上海天麦能源科技有限公司 一种用于城市燃气管网边缘计算***的卸载方法
CN113961264B (zh) * 2021-09-30 2024-01-09 河海大学 一种面向视频监控云边协同的智能卸载算法与***
CN113961264A (zh) * 2021-09-30 2022-01-21 河海大学 一种面向视频监控云边协同的智能卸载算法与***
CN113961266B (zh) * 2021-10-14 2023-08-22 湘潭大学 一种边云协同下基于双边匹配的任务卸载方法
CN113961266A (zh) * 2021-10-14 2022-01-21 湘潭大学 一种边云协同下基于双边匹配的任务卸载方法
CN114051266A (zh) * 2021-11-08 2022-02-15 首都师范大学 基于移动云-边缘计算的无线体域网任务卸载方法
CN114051266B (zh) * 2021-11-08 2024-01-12 首都师范大学 基于移动云-边缘计算的无线体域网任务卸载方法
CN114301907A (zh) * 2021-11-18 2022-04-08 北京邮电大学 云计算网络中的业务处理方法、***、装置及电子设备
CN114143355A (zh) * 2021-12-08 2022-03-04 华北电力大学 一种电力物联网低时延安全云边端协同方法
CN115102974A (zh) * 2021-12-08 2022-09-23 湘潭大学 基于双边匹配博弈的协同内容缓存方法
CN114143355B (zh) * 2021-12-08 2022-08-30 华北电力大学 一种电力物联网低时延安全云边端协同方法
CN114302373A (zh) * 2021-12-30 2022-04-08 东南大学 一种基于计算可靠性的v2v通信中的卸载决策和功率分配方法
CN114785777A (zh) * 2022-03-04 2022-07-22 杭州未名信科科技有限公司 一种用于传输资源的端-边-云计算最优解耦方法
CN114928607A (zh) * 2022-03-18 2022-08-19 南京邮电大学 面向多边接入边缘计算的协同任务卸载方法
CN114928607B (zh) * 2022-03-18 2023-08-04 南京邮电大学 面向多边接入边缘计算的协同任务卸载方法
CN114928653B (zh) * 2022-04-19 2024-02-06 西北工业大学 面向群智感知的数据处理方法及装置
CN114928653A (zh) * 2022-04-19 2022-08-19 西北工业大学 面向群智感知的数据处理方法及装置
CN114945025B (zh) * 2022-04-25 2023-09-15 国网经济技术研究院有限公司 面向电网中云边协同的价格驱动正和博弈卸载方法及***
CN114945025A (zh) * 2022-04-25 2022-08-26 国网经济技术研究院有限公司 面向电网中云边协同的价格驱动正和博弈卸载方法及***
CN114841952A (zh) * 2022-04-28 2022-08-02 华南理工大学 一种云边协同的早产儿视网膜病变检测***及检测方法
CN114841952B (zh) * 2022-04-28 2024-05-03 华南理工大学 一种云边协同的早产儿视网膜病变检测***及检测方法
CN114844900B (zh) * 2022-05-05 2022-12-13 中南大学 一种基于不确定需求下的边云资源协作方法
CN114844900A (zh) * 2022-05-05 2022-08-02 中南大学 一种基于不确定需求下的边云资源协作方法
CN114637608A (zh) * 2022-05-17 2022-06-17 之江实验室 一种计算任务分配和更新方法、终端及网络设备
CN114745389B (zh) * 2022-05-19 2023-02-24 电子科技大学 移动边缘计算***的计算卸载方法
CN114745389A (zh) * 2022-05-19 2022-07-12 电子科技大学 移动边缘计算***的计算卸载方法
CN115002113B (zh) * 2022-05-26 2023-08-01 南京邮电大学 一种移动基站边缘计算力资源调度方法、***、电子设备
CN115002113A (zh) * 2022-05-26 2022-09-02 南京邮电大学 一种移动基站边缘计算力资源调度方法、***、电子设备
CN115225675A (zh) * 2022-07-18 2022-10-21 国网信息通信产业集团有限公司 一种基于边缘计算的充电场站智能运维的***
CN115297013B (zh) * 2022-08-04 2023-11-28 重庆大学 一种基于边缘协作的任务卸载及服务缓存联合优化方法
CN115297013A (zh) * 2022-08-04 2022-11-04 重庆大学 一种基于边缘协作的任务卸载及服务缓存联合优化方法
CN115426409A (zh) * 2022-08-25 2022-12-02 深圳清华大学研究院 基于主动缓存mec的通信资源分配与任务卸载方法
CN116016522A (zh) * 2023-02-13 2023-04-25 广东电网有限责任公司中山供电局 一种云边端协同的新能源终端监控架构
CN117240631A (zh) * 2023-11-15 2023-12-15 成都超算中心运营管理有限公司 基于消息中间件连接异构工业设备与云平台的方法及***

Also Published As

Publication number Publication date
CN111585916B (zh) 2023-08-01

Similar Documents

Publication Publication Date Title
CN111585916B (zh) 基于云边协同的lte电力无线专网任务卸载和资源分配方法
Guo et al. Computation offloading for multi-access mobile edge computing in ultra-dense networks
CN111447619B (zh) 一种移动边缘计算网络中联合任务卸载和资源分配方法
CN109684075B (zh) 一种基于边缘计算和云计算协同进行计算任务卸载的方法
CN107766135B (zh) 移动朵云中基于粒子群和模拟退火优化的任务分配方法
US20200162574A1 (en) System And Method For Joint Dynamic Forwarding And Caching In Content Distribution Networks
Wu et al. An efficient offloading algorithm based on support vector machine for mobile edge computing in vehicular networks
Dai et al. Joint offloading and resource allocation in vehicular edge computing and networks
Van Le et al. Quality of service aware computation offloading in an ad-hoc mobile cloud
Samanta et al. Latency-oblivious distributed task scheduling for mobile edge computing
WO2023039965A1 (zh) 流量疏导的云边计算网络计算资源均衡调度方法及***
Zhao et al. Task proactive caching based computation offloading and resource allocation in mobile-edge computing systems
Liu et al. Multi-agent deep reinforcement learning for end—edge orchestrated resource allocation in industrial wireless networks
Wang et al. Task allocation mechanism of power internet of things based on cooperative edge computing
Wu et al. A mobile edge computing-based applications execution framework for Internet of Vehicles
Li et al. Joint computation offloading and service caching for MEC in multi-access networks
Huda et al. Deep reinforcement learning-based computation offloading in uav swarm-enabled edge computing for surveillance applications
Chen et al. DDPG-based computation offloading and service caching in mobile edge computing
Krijestorac et al. Hybrid vehicular and cloud distributed computing: A case for cooperative perception
Wu et al. A deep reinforcement learning approach for collaborative mobile edge computing
Tayade et al. Delay constrained energy optimization for edge cloud offloading
Galanopoulos et al. Optimizing data analytics in energy constrained IoT networks
Chen et al. Timeliness analysis of service-driven collaborative mobile edge computing in UAV swarm
CN115134364B (zh) 基于o-ran物联网***的节能计算卸载***及方法
Malik et al. A user-centric qos-aware multi-path service provisioning in mobile edge computing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant