CN116339748A - 基于移动性预测的边缘计算网络中的自适应应用程序部署方法 - Google Patents
基于移动性预测的边缘计算网络中的自适应应用程序部署方法 Download PDFInfo
- Publication number
- CN116339748A CN116339748A CN202310203133.8A CN202310203133A CN116339748A CN 116339748 A CN116339748 A CN 116339748A CN 202310203133 A CN202310203133 A CN 202310203133A CN 116339748 A CN116339748 A CN 116339748A
- Authority
- CN
- China
- Prior art keywords
- deployment
- user
- edge
- mobility prediction
- application
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 230000033001 locomotion Effects 0.000 claims abstract description 26
- 238000005457 optimization Methods 0.000 claims abstract description 10
- 238000012549 training Methods 0.000 claims abstract description 10
- 230000014509 gene expression Effects 0.000 claims description 22
- 230000003044 adaptive effect Effects 0.000 claims description 16
- 238000004422 calculation algorithm Methods 0.000 claims description 16
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000007774 longterm Effects 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 4
- 238000012216 screening Methods 0.000 claims description 4
- 239000000203 mixture Substances 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 2
- 238000013461 design Methods 0.000 abstract description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 101150011812 AADAC gene Proteins 0.000 description 4
- 230000001934 delay Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000013508 migration Methods 0.000 description 2
- 230000005012 migration Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 101100502320 Arabidopsis thaliana FAD4 gene Proteins 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008033 biological extinction Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 238000013439 planning Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/60—Software deployment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5072—Grid computing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/506—Constraint
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/509—Offload
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mobile Radio Communication Systems (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明公开了一种基于移动性预测的边缘计算网络中的自适应应用程序部署方法,该方法实现的部署框架是基于一种通用的自适应的移动性预测框架,能够对不同的移动轨迹取得良好的准确性以及节省模型设计与训练的成本,并提出了一种自适应的应用程序部署方法,以移动用户在未来多个时间段的移动性预测作为输入,以优化最大化用户的服务质量和最小化减少边缘节点的部署成本为目标,将移动用户的服务程序动态地部署到最合适的边缘节点。本发明构建了一种联合优化来确定服务用户的应用程序所部署的位置和周期。
Description
技术领域
本发明属于网络资源管理技术,具体涉及边缘计算网络中的应用程序的部署,尤其涉及一种基于移动性预测的边缘计算网络中的应用程序的部署方法。
背景技术
移动设备由于便携性的需求,通常在尺寸、重量和电池容量的受到了限制,从而导致计算和存储资源的匮乏,这严重阻碍了许多延迟敏感型和计算密集型任务的执行。虽然相较于传统云计算,边缘计算能够提供更实时、更便捷、甚至更灵活的计算服务。但是边缘计算也存在着一些固有的限制条件,例如边缘服务器的算力以及存储资源通常并不富裕,边缘服务器的接入覆盖范围一般较为有限。同时终端用户具备移动性,将导致跨网关移动切换频繁,服务持续性难以保证。
近年来随着大数据技术和人工智能算法的飞速发展,以及各种移动设备产生了多样性的用户移动数据。随着用户对于应用程序个性化的需求不断增加,亟需研究面向泛在移动场景的边缘计算应用服务动态部署优化。同时,借助于深度学习在时序数据集上的优秀能力,促使我们考虑将用户移动性预测和应用程序主动性部署相结合作为边缘计算中保证服务持续性的解决方案。由于以下原因,联合考虑在边缘计算场下,移动性预测和应用程序部署的研究是必要的和关键的:
1)未来将出现更多的便携型移动设备接入基站,有着更多的计算卸载需求。然而由于用户的移动模式不同,当前的移动性预测算法和框架只适用于某个用户或具有类似移动模式的用户,而边缘计算场景下有着大量的移动设备,这将导致预测效率低下。同时,通用的预测性框架又存在预测准确性低下的问题,这将导致一些基于移动性预测的应用部署算法低效。因此,研究能够针对不同移动轨迹自适应调整的预测模型,以保证预测精度,同时显著降低模型设计和训练的成本非常重要。
2)用户的移动和计算负载是时变的,应用程序的放置与迁移也应该能可以随着移动用户的轨迹自适应的调整,从而为用户提供更高的服务质量。同时,边缘节点的算力与存储资源是有限的,也需要考虑到边缘节点部署应用程序的成本。
虽然移动性预测和应用程序部署的研究很有意义,但不可忽视的是这也面临一定的挑战,原因如下:
a)当预测模型的复杂性与数据的复杂性相匹配时,其泛化性能会很健壮。当数据的复杂性高于模型的复杂性,可能会发生过拟合现象。反之,可能发生欠拟合现象。如果为不同移动用户设计不同的预测模型时,模型设计成本和模型训练时间会随着用户数量的增加而急剧增加。然而,如果设计一个特定的模型来预测所有的移动轨迹,存在大量地用户移动性预测准确率低下。
b)为了提高动态边缘计算环境中异构移动用户的用户质量,必须要同时优化应用程序的部署周期和位置。然而,这就产生了另一个优化问题,即最小化边缘节点的部署成本将会涉及到边缘节点的计算资源分配问题。但是这些决策变量高度依赖于未来多个时间段内移动性预测的准确性。此外,预测的准确性和预测的时间周期之间也存在固有的冲突,使得这个基于移动性预测的应用部署问题更加复杂。
发明内容
发明目的:针对上述现有技术中存在的边缘服务器的部署资源优化不足以及移动场景下用户的服务质量难以保证的问题,本发明提供一种基于移动性预测的边缘计算网络中的自适应应用程序部署方法。
技术方案:一种基于移动性预测的边缘计算网络中的自适应应用程序部署方法,所述方法应用于基于边缘计算服务器组建为移动用户的应用程序提供动态分配的应用程序部署***,所述方法针对于不同移动模式的移动用户,以最大化用户的服务质量和最小化减少边缘节点的部署成本为目标,基于移动性预测模型将移动用户的服务程序动态地部署到相应的边缘节点上;
所述方法对于建立边缘计算场景下的移动用户应用程序部署模型包括如下步骤:
(1)确定应用程序部署***的决策变量,包括调整每个用户的服务应用程序部署的位置μi,j和决策每个用户的服务应用程序提前部署的周期Wi,j;
(4)基于未来若干个时间段的移动性预测的结果,优化移动用户的应用程序部署位置和周期,构建以边缘计算网络的服务延迟和部署成本最小化函数,基于移动性预测的边缘计算网络中的应用程序部署优化问题的函数,其表达式如下:
约束条件:
(5)通过自适应部署算法求解移动用户的应用程序部署优化问题,完成移动用户的计算任务卸载到边缘计算服务器的动态部署。
进一步的,步骤(1)中,每个移动用户i∈N产生一个单一类型的计算任务,卸载到边缘节点j∈M来接受相关服务;在提前部署的周期Wi,j最长的未来时间划分为若干个时间槽,产生和卸载任务发生在每个时间槽内。
进一步的,步骤(2)所述用户的移动性数据包括用户的移动速率和移动路径,在移动用户的移动路径上考虑可能存在的沿途基站接入的切换情况,包括接入切换引发的路由开销和部署成本costi,j的计算,且以服务延迟/>和部署成本costi,j最小为目标。
更进一步的,步骤(2)中所述的移动性预测框架是基于残差结构的LSTM网络模型实现的,以用户的位置坐标和移动速率为特征,输出用户未来多时隙的位置坐标和接入的基站编号,包括一个基本块和三个残差块组成,所述的基本块和残差块均包含归一化层和dropout层;
基本块,用于实现至少有一个堆叠的LSTM网络可以从长期位置关系中提取时序信息;
残差块,用于实现该移动性预测框架性能优于单个堆叠的LSTM网络框架;
所述的移动性预测框架最后通过全连接层获得未来的位置信息和接入的基站信息。
进一步的,步骤(3)中,边缘计算网络中整个***的部署开销F的数学表达式表示如下:
另外F中还包含部署成本costi,j,其表达式为:
costi,j=μi,jappi/Wi
其中,β是一个比例系数,用于权衡部署成本和服务延迟,θ表示光的传播速率;表示任务量的大小,单位为bit/s,bi表示用户卸载任务的速率,pi表示任务所分配的处理器转速,/>表示任务需要的处理器转数,appi表示处理用户相应任务所需要的服务程序的存储容量;/>表示用户和边缘节点的距离,使用欧几里得距离表示:
进一步的,步骤(5)中,对于移动用户的应用程序及计算任务部署包括如下过程:
(51)将移动用户的历史数据喂入RELS移动性预测框架,训练模型,并获得未来多个时隙的位置坐标和接入的基站编号;
(53)计算每个用户的应用程序在不同边缘节点和部署周期里的预部署成本,预部署成本由用户的服务延迟和边缘节点的部署成本组成;
(54)将该问题转换为一个资源受限的广义指派问题,通过贪心算法或动态规划得到每个用户的最优部署周期和部署位置。
更进一步的,上述方法在部署过程中,首先根据预测精度的要求,得到每个用户的应用程序部署周期的取值范围WWiitth。其次计算每个应用程序在不同边缘节点和部署周期里的预部署部署成本。通过贪心算法得到最优部署策略。
有益效果:本发明与现有技术相比,其显著特点和实质性进步包括如下三点:
第一、本发明综合考虑了移动用户应用程序部署到相应的边缘节点上的影响因素,包括用户的移动性,边缘节点的存储空间和算力受限,边缘节点提供高质量服务与部署成本的权衡、未来多个时隙的预测准确性。
第二、本发明设计了一种移动性预测框架,考虑到不同移动性数据的个性化差异。能够在预测中对不同的移动轨迹实现良好的准确性以及节省模型设计与训练的成本,并且对于移动用户的移动速率、移动路径有考虑,通过沿途基站的切换特征进行综合考虑,提高预测的准确性,最大化降低***开销。
第三、本发明采用自适应部署,以移动用户在未来多个时间段的移动性预测作为输入,优化了用户的应用程序的部署周期和位置,能够确保移动用户在多接入边缘环境中的服务质量和获得经济高效的边缘计算服务。
附图说明
图1是本发明所述框架所构建***模型结构示意图;
图2是本发明所述框架的***流程图;
图3为本发明中移动性预测的模型结构图;
图4为实例中不同预测周期下用户移动性准确率柱状图;
图5为实例中边缘节点不同传输速率下服务延迟折线图;
图6为实例中边缘节点不同传输速率下部署成本折线图。
具体实施方式
为了详细的说明本发明所公开的技术方案,下面结合附图和具体实施方式对本发明做进一步地阐述。
首先,本发明所述框架重点解决的问题是在动态边缘计算场景下,如何通过调整部署的周期和位置,实现用户的服务延迟和边缘节点部署成本的最小化。具体***模型如图1所示。
本发明的主要思想是通过收集移动用户过往的移动性数据,设计通用的移动性预测框架对移动性数据进行训练,从而获得用户未来的移动性信息。并通过这些预测信息,筛选符合部署条件的未来时间段以及估算在所有可行的部署周期内,所有应用程序在各个边缘节点上的预部署成本。根据预部署成本,执行相应的部署算法,得到最佳部署策略,如图2所示。
具体来说,一种基于移动性预测的边缘计算网络中的自适应应用程序部署方法,包括以下步骤:
步骤1:建立边缘计算场景下的移动用户应用程序部署模型。
该步骤将面向基于移动性预测的边缘计算网络中的自适应应用程序部署框架的实际问题数学化分析。
根据实际的应用场景和边缘节点的布置,每个边缘节点包含一个接入点(即基站),移动用户将任务卸载至此,以及一个边缘服务器,可以为那些安装了服务程序的任务提供计算服务。用集合M表示,集合的基数|M|=m。同时,存在一群具有异质移动模式的移动用户,如自行车、汽车、火车,用集合N表示,集合的基数|N|=n。每个移动用户i∈N产生单一类型的计算任务,如交通***计算服务、网页浏览、导航路径规划等,需要卸载到边缘节点j∈M以接收相关服务。将时间划分为若干个时间槽,每个时间槽内产生和卸载任务。
每个用户i都有以下规范:appi表示用户i的服务应用程序所需要的存储空间大小;pi表示用户i的计算任务需要消耗的处理器计算资源,bi表示用户i的上行数据速率。此外,在每个时隙t中,每个用户的位置坐标表示为这取决于其移动模式。此外,用户i的计算任务的数据大小被定义为/>每个计算任务所需的CPU周期被定义为/>
每个边缘节点j具有以下规范:(xj,yj)指示边缘节点j的位置坐标。pj指示边缘节点j拥有的处理器的计算资源,而bj表示边缘节点j的传输速率。
本发明的主要目的是根据用户的移动轨迹最小化总体平均服务延迟和部署成本。因此,有了最小化总体部署成本F的目标,整个边缘计算***可以做出相应的决策,包括如下几点:
a)调整每个用户的服务应用程序部署的位置μi,j
b)决策每个用户的服务应用程序提前部署的周期μi,j
满足以下的限制条件:
步骤2:收集用户的移动性数据,设计自适应的移动性预测框架,以此实现移动性预测。
不同用户的移动模式不同,表现在移动速率和移动规律上的不同,因此接入切换的频率不同。由于接入切换的频率不同,统一的部署周期会造成以下问题:较长的部署周期将会造成服务延迟的增加,较短的部署周期会带来部署成本的额外开销。因此,应该灵活地调整移动用户的服务程序的部署周期,以降低服务延迟和部署成本。同时,由于边缘节点的计算资源是有限,无法为所有未来发生接入切换的移动用户部署相应的服务程序,因此,需要动态决策移动用户的部署位置。
进一步地,考虑到移动轨迹数据被认为是在不同时间点收集的时间序列数据,易于获得。因此,本发明可以利用这些数据进行移动性预测,以指导主动应用程序部署。
为解决移动轨迹的问题,本发明结合神经网络进行机器学习,通过RNN用于时间序列预测任务。然而,RNN存在一些问题,例如梯度消失和***,以及处理长期依赖性的能力有限。因此,训练难以收敛,最终训练的模型不稳定。相反,通过引入存储单元和三个门(即输入门、遗忘门和输出门),利用RNN的一个变体,即所谓的LSTM来捕获长期信息。考虑到深度网络结构可以学习用户移动轨迹的更多时间依赖性,因此考虑使用堆叠的LSTM网络结构。由于移动数据集的数量和复杂性不同,模型结构及其参数需要针对每个用户进行动态调整。然而,对于小数据集或简单数据集(即移动模式是规则的),预测错误将随着网络层数量的增加而增加(即“退化现象”)。残余网络使得更深的网络可以通过提供跨层的捷径,从而解决退化现象,从而至少实现浅层网络的性能。因此,设计了一个残差LSTM框架来预测移动用户的未来移动模式。该框架可以通过训练为每个用户获得最合适的模型参数。该预测框架使用用户的纬度和经度位置坐标作为训练的特征。然后,根据预测的位置坐标计算用户未来接入的基站。
对于移动性预测框架,该框架由一个基本块和三个残差块组成,如图3,前者保证至少有一个堆叠的LSTM网络可以从长期位置关系中提取时序信息,后者保证性能一定比只有一个堆叠的LSTM网络的框架好。基本块和残差区块都是由一个堆叠的LSTM、一个层归一化层和一个dropout层组成。层归一化层调整了计算出的中间数据的平均值和方差,使隐藏状态的传输更加稳定,训练过程更加快速。放在每个块末尾的dropout层减少了过拟合,使预测模型更加稳健。最后,将提取的高级语义特征压平成放入全连接层,从而获得未来的位置信息。
步骤3:计算边缘计算网络的部署开销F,并通过自适应部署算法求解。
在上述边缘服计算的场景中,以此构建移动用户的应用程序部署***模型中,以最小化总体平均服务延迟和部署成本为目标,边缘计算网络中整个***的部署开销F的数学表达式表示如下:
另外F中还包含部署成本costi,j,其表达式为:
costi,j=μi,jappi/Wi
其中,β是一个比例系数,用于权衡部署成本和服务延迟。θ表示光的传播速率,数值上为3*108m/s。表示任务量的大小,单位为bit/s,bi表示用户卸载任务的速率,pi表示任务所分配的处理器转速,/>表示任务需要的处理器转数,appi表示处理用户相应任务所需要的服务程序的存储容量。/>表示用户和边缘节点的距离,使用欧几里得距离表示:
其中,β是一个比例系数,用于权衡部署成本和服务延迟。
步骤4:基于不同的移动用户的移动模式,同时考虑到移动预测框架对于不同的预测时长的预测效果,设计一种低复杂度的自适应的应用程序部署方法同时权衡用户的服务质量和服务器的部署成本,采用多个未来时间段的移动性预测结果来做出最佳部署决策。
对本发明中应用程序部署优化问题进行求解,从而也可实现移动用户的计算任务卸载,实施过程如下:
1)将移动用户的历史数据喂入RELS移动性预测框架,训练模型,并获得未来多个时隙的位置坐标和接入的基站编号。
3)计算每个用户的应用程序在不同边缘节点和部署周期里的预部署成本,预部署成本由用户的服务延迟和边缘节点的部署成本组成。
4)将该问题转换为一个资源受限的广义指派问题,通过贪心算法或动态规划得到每个用户的最优部署周期和部署位置。
对于对应的算法实现过程,该算法接收三个输入参数,分别是:
a)最小可接受预测精度accth,用于控制预测的精度;
b)用户的历史移动性数据U;
c)权衡部署成本和服务延迟的比例系数β。
最后指出的是:本发明首先通过步骤2的残差LSTM框架获得多个未来时间段移动性预测表,该表拥有所有用户对于每个未来时间段的预测结果的精度。根据accth通过查询此表获得所有用户应用程序的部署周期的值范围M。其次,估算所有潜在的预部署成本,也就是所有合理的部署周期内,每个用户的应用程序部署到每个边缘节点的服务延迟和部署成本的预期加权和。为了得到这些潜在的部署成本,将会使用步骤1所提到的和costi,j计算公式。值得注意的是,只有部署的边缘节点与预测接入的边缘节点不同时,才需要计算额外的路由成本。最后,根据这些估算的潜在的预部署成本,采用贪心算法来获得最佳应用程序部署策略。
为了全面说明本发明所提出的基于移动性预测的边缘计算网络中的自适应应用程序部署框架,下面分别通过以下三个指标来评估性能:
(1)用户移动性预测的正确率;
(2)所有用户总体服务延迟;
(3)所有边缘节点的部署成本。
本实施例中,使用pytorch深度学***均值。其中,本发明提出的基于移动性预测的边缘计算网络中的自适应应用程序部署框架称为AADA;固定周期部署的框架称为FADA;跟随移动模式纯迁移的方案为Mig;总是将任务交由一开始的边缘节点计算的策略为NoMig。同时,本发明提出的残差LSTM移动性预测架构为RELS;基于基站id特征的的残差LSTM移动性预测架构为RELS_BS;使用强化学习自适应调整的预测模型为TL_RL_LSTM;全面搜索神经网络的预测模型为GS_LSTM。
如图4所示,本发明所提出的RELS移动性预测架构在预测准确率上要优于其他模型,尤其是未来更长时间段的预测结构。如图5所示,本发明提出的架构AADA在用户服务延迟明显优于其他其他架构,随着边缘节点传输速率的上升,AADA的服务延迟增加,是因为AADA考虑到了部署成本和用户服务延迟的权衡,牺牲一部分服务延迟,保证较少的部署成本。如图6所示,AADA算法不仅有着很低的服务时延,同时部署成本相对较低(NoMig由于不需要部署新的应用程序,所以部署成本为0)。综合图4、图5与图6,检验了本发明所述的基于移动性预测的边缘计算网络中的应用程序的部署框架的优越性能。
Claims (7)
1.一种基于移动性预测的边缘计算网络中的自适应应用程序部署方法,所述方法应用于基于边缘计算服务器组建为移动用户的应用程序提供动态分配的应用程序部署***,其特征在于:所述方法针对于不同移动模式的移动用户,以最大化用户的服务质量和最小化减少边缘节点的部署成本为目标,基于移动性预测模型将移动用户的服务程序动态地部署到相应的边缘节点上;
所述方法对于建立边缘计算场景下的移动用户应用程序部署模型包括如下步骤:
(1)确定应用程序部署***的决策变量,包括调整每个用户的服务应用程序部署的位置μi,j和决策每个用户的服务应用程序提前部署的周期Wi,j;
(4)基于未来若干个时间段的移动性预测的结果,优化移动用户的应用程序部署位置和周期,构建以边缘计算网络的服务延迟和部署成本最小化函数,基于移动性预测的边缘计算网络中的应用程序部署优化问题的函数,其表达式如下:
约束条件:
(5)通过自适应部署算法求解移动用户对应的应用程序的部署优化问题,完成移动用户的计算任务卸载到边缘计算服务器的动态部署。
2.根据权利要求1所述的基于移动性预测的边缘计算网络中的自适应应用程序部署方法,其特征在于:步骤(1)中,每个移动用户i∈N产生一个单一类型的计算任务,卸载到边缘节点j∈M来接受相关服务;在提前部署的周期Wi,j最长的未来时间划分为若干个时间槽,产生和卸载任务发生在每个时间槽内。
5.根据权利要求1或4所述的基于移动性预测的边缘计算网络中的自适应应用程序部署方法,其特征在于:步骤(2)中所述的移动性预测框架是基于残差结构的LSTM网络模型实现的,以用户的位置坐标和移动速率为特征,输出用户未来多时隙的位置坐标和接入的基站编号,包括一个基本块和三个残差块组成,所述的基本块和残差块均包含归一化层和dropout层;
基本块,用于实现至少有一个堆叠的LSTM网络可以从长期位置关系中提取时序信息;
残差块,用于实现该移动性预测框架性能优于单个堆叠的LSTM网络框架;
所述的移动性预测框架最后通过全连接层获得未来的位置信息和接入的基站信息。
6.根据权利要求1所述的基于移动性预测的边缘计算网络中的自适应应用程序部署方法,其特征在于:步骤(3)中,边缘计算网络中整个***的部署开销F的数学表达式表示如下:
另外F中还包含部署成本costi,j,其表达式为:
costi,j=μi,jappi/Wi
其中,β是一个比例系数,用于权衡部署成本和服务延迟,θ表示光的传播速率;表示任务量的大小,单位为bit/s,bi表示用户卸载任务的速率,pi表示任务所分配的处理器转速,/>表示任务需要的处理器转数,appi表示处理用户相应任务所需要的服务程序的存储容量;/>表示用户和边缘节点的距离,使用欧几里得距离表示:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310203133.8A CN116339748A (zh) | 2023-03-06 | 2023-03-06 | 基于移动性预测的边缘计算网络中的自适应应用程序部署方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310203133.8A CN116339748A (zh) | 2023-03-06 | 2023-03-06 | 基于移动性预测的边缘计算网络中的自适应应用程序部署方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116339748A true CN116339748A (zh) | 2023-06-27 |
Family
ID=86890747
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310203133.8A Pending CN116339748A (zh) | 2023-03-06 | 2023-03-06 | 基于移动性预测的边缘计算网络中的自适应应用程序部署方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116339748A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117255368A (zh) * | 2023-11-17 | 2023-12-19 | 广东工业大学 | 车载边缘服务器协同固定边缘服务器的边缘动态集成方法 |
-
2023
- 2023-03-06 CN CN202310203133.8A patent/CN116339748A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117255368A (zh) * | 2023-11-17 | 2023-12-19 | 广东工业大学 | 车载边缘服务器协同固定边缘服务器的边缘动态集成方法 |
CN117255368B (zh) * | 2023-11-17 | 2024-02-27 | 广东工业大学 | 车载边缘服务器协同固定边缘服务器的边缘动态集成方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210406696A1 (en) | Learning-based service migration in mobile edge computing | |
Elgendy et al. | Joint computation offloading and task caching for multi-user and multi-task MEC systems: reinforcement learning-based algorithms | |
Liu et al. | Resource allocation with edge computing in IoT networks via machine learning | |
CN111641681A (zh) | 基于边缘计算和深度强化学习的物联网服务卸载决策方法 | |
CN113645637B (zh) | 超密集网络任务卸载方法、装置、计算机设备和存储介质 | |
CN116339748A (zh) | 基于移动性预测的边缘计算网络中的自适应应用程序部署方法 | |
Geng et al. | Deep-reinforcement-learning-based distributed computation offloading in vehicular edge computing networks | |
CN114626298A (zh) | 无人机辅助车联网中高效缓存和任务卸载的状态更新方法 | |
Li et al. | DQN-enabled content caching and quantum ant colony-based computation offloading in MEC | |
Yan et al. | Two-dimensional task offloading for mobile networks: An imitation learning framework | |
Chunduri et al. | Optimizing energy and latency trade-offs in mobile ultra-dense IoT networks within futuristic smart vertical networks | |
Jo et al. | Deep reinforcement learning‐based joint optimization of computation offloading and resource allocation in F‐RAN | |
Li et al. | Multi‐tier MEC offloading strategy based on dynamic channel characteristics | |
Zhang | A computing allocation strategy for Internet of things’ resources based on edge computing | |
Li et al. | Task computation offloading for multi-access edge computing via attention communication deep reinforcement learning | |
Li et al. | Collaborative optimization of edge-cloud computation offloading in internet of vehicles | |
Huang et al. | Learning-aided fine grained offloading for real-time applications in edge-cloud computing | |
Cui et al. | Resource-Efficient DNN Training and Inference for Heterogeneous Edge Intelligence in 6G | |
Wang et al. | Task offloading for edge computing in industrial Internet with joint data compression and security protection | |
Christian et al. | A low-interference channel status prediction algorithm for instantaneous spectrum access in cognitive radio networks | |
CN116418808A (zh) | 一种mec的联合计算卸载和资源分配方法及装置 | |
Ren et al. | An approximation algorithm for joint data uploading and task offloading in IoV | |
Shi | A task segmentation and computing offload algorithm for mobile edge computing | |
Li et al. | Energy-Efficient Task Offloading with Statistic QoS Constraint Through Multi-level Sleep Mode in Ultra-Dense Network | |
Tong et al. | D2op: A fair dual-objective weighted scheduling scheme in internet of everything |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |