CN118113484A - 一种资源调度方法、***、存储介质及车辆 - Google Patents

一种资源调度方法、***、存储介质及车辆 Download PDF

Info

Publication number
CN118113484A
CN118113484A CN202410527254.2A CN202410527254A CN118113484A CN 118113484 A CN118113484 A CN 118113484A CN 202410527254 A CN202410527254 A CN 202410527254A CN 118113484 A CN118113484 A CN 118113484A
Authority
CN
China
Prior art keywords
vehicle
server
task
computing
representing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202410527254.2A
Other languages
English (en)
Other versions
CN118113484B (zh
Inventor
朱小刚
林波
樊启富
李向军
庞孟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanchang University New Generation Information Technology Industry Research Institute
Nanchang University
Original Assignee
Nanchang University New Generation Information Technology Industry Research Institute
Nanchang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanchang University New Generation Information Technology Industry Research Institute, Nanchang University filed Critical Nanchang University New Generation Information Technology Industry Research Institute
Priority to CN202410527254.2A priority Critical patent/CN118113484B/zh
Publication of CN118113484A publication Critical patent/CN118113484A/zh
Application granted granted Critical
Publication of CN118113484B publication Critical patent/CN118113484B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种资源调度方法、***、存储介质及车辆,该方法包括:建立车辆与移动边缘服务器、闲置车辆、云服务器的网络通信模型,以使得车辆与移动边缘服务器、闲置车辆、云服务器之间建立通信连接;获取计算平台的成本模型以及移动边缘服务器的负载平衡模型,根据成本模型和负载平衡模型以及相关调度信息确定资源调度模型;获取车辆上的待计算密集型任务的相关信息,根据相关信息利用资源调度模型确定待计算密集型任务的卸载策略;将卸载策略分发至对应的计算平台,并利用计算平台根据卸载策略对待计算密集型任务进行卸载。本发明解决了现有技术中,在进行车辆上的计算任务的卸载时计算资源受限而导致卸载任务效果不佳的问题。

Description

一种资源调度方法、***、存储介质及车辆
技术领域
本发明涉及车辆技术领域,特别涉及一种资源调度方法、***、存储介质及车辆。
背景技术
为了应对车辆计算能力的限制,移动云计算(MCC)被引入到车联网(IoV)中。MCC将云计算的计算能力扩展到车辆,利用云计算应用处理和服务计算密集型应用。这种解决方案是将车辆无法满足的全部或部分计算密集型任务转移到远程云服务器上,然后通过蜂窝网络将计算结果反馈给车辆。但由于距离因素,远程云服务器通常离车辆较远。此外,对于数据量较大的计算任务,如自动驾驶、图像和语音处理应用,可能会导致高传输延迟,这对于这些应用来说是不可接受的。其次,大量车辆将计算任务卸载到远程云计算中心,可能会给骨干网络带来巨大压力,甚至可能导致网络阻塞或瘫痪,因此,MCC并不是车联网中计算任务卸载的理想解决方案。
同时,为了进一步减少计算任务的传输延迟,移动边缘计算(MEC)被引入到车辆网络中。MEC主要是在道路边缘部署服务器,例如在路边单元(RSU)、基站(BS)等地。因此,计算资源和存储资源被推送到道路边缘,使得计算服务能够靠近车辆提供。与移动云计算(MCC)相比,MEC不仅减少了计算任务的传输延迟和对主干网络的压力,而且具有灵活部署的特点,但是MEC的计算能力仍然不足以应对过多车辆需要卸载计算任务时的情况,以及过多任务卸载时MEC计算资源不足的问题。
因此,现有技术当中,在进行车辆上的计算任务的卸载时存在计算资源受限而导致卸载任务效果不佳的问题。
发明内容
有鉴于此,本发明的目的在于提供一种资源调度方法、***、存储介质及车辆,旨在解决现有技术中,在进行车辆上的计算任务的卸载时计算资源受限而导致卸载任务效果不佳的问题。
本发明实施例是这样实现的:
一种资源调度方法,用于将车辆上依赖额外计算资源进行计算的计算密集型任务同时卸载到至少一个计算平台,所述计算平台包括本地闲置车辆、移动边缘服务器、云服务器,所述方法包括:
建立所述车辆与所述移动边缘服务器、闲置车辆、云服务器的网络通信模型,以使得所述车辆与所述移动边缘服务器、闲置车辆、云服务器之间建立通信连接;
获取所述计算平台的成本模型以及移动边缘服务器的负载平衡模型、资源分配模型,根据所述成本模型、负载平衡模型、资源分配模型以及相关调度信息确定资源调度模型;
获取所述车辆上的待计算密集型任务的相关信息,根据所述相关信息利用所述资源调度模型确定所述待计算密集型任务的卸载策略;
将所述卸载策略分发至对应的所述计算平台,并利用所述计算平台根据所述卸载策略对所述待计算密集型任务进行卸载。
进一步的,上述资源调度方法,其中,所述资源调度模型为:
其中,表示目标函数中***总成本的权重,而/>表示目标函数中负载平衡的权重,/>是所有车辆的任务依赖拓扑矩阵,/>中的第/>个元素对应于车辆的计算任务/>的拓扑向量/>,/>是所有车辆计算任务的卸载矩阵,/>中的第/>个元素对应于车辆的计算任务/>的卸载策略,即对应于拓扑向量/>中子任务的卸载位置,/>表示卸载位置为移动边缘服务器时的移动边缘服务器数量,当/>= 0 时,表示不向移动边缘服务器卸载,/>、/>分别是所有移动边缘服务器的计算资源分配矩阵和存储资源分配矩阵,/>中的第/>行对应于第n个移动边缘服务器的计算资源分配向量/>,/>中的第/>行对应于移动边缘服务器的存储资源分配向量,/>是基站的带宽资源分配向量,/>,向量中的元素代表每辆车的带宽分配系数;
表示车辆将/>分割成多个相互依赖的子任务/>的数据量与任务/>的数据量相等;/>表示完成车辆的计算密集型任务/>的延迟时间/>不能超过任务/>的最大容忍延迟时间/>;/>意味着/>服务器分配给车辆的计算资源/>,不能超过/>服务器的总计算资源,且/>服务器分配给所有卸载车辆的计算资源的总和也不能超过/>服务器的总计算资源/>;/>表明车辆的基站带宽分配因子/>应大于0且小于1,所有车辆的基站带宽分配之和应小于基站的总带宽/>,/>代表所有车辆向/>服务器卸载的子任务的数据量和计算结果之和,不能超过/>服务器的总存储资源/>;/>表示离散变量的范围。
进一步的,上述资源调度方法,其中,所述负载平衡模型为:
其中,,/>为移动边缘服务器的计算资源系数,/>为移动边缘服务器的内存资源系数,/>为移动边缘服务器资源分配模型,/>表示/>服务器当前的计算资源使用情况,/>表示/>服务器当前的内存使用情况,m为可参与卸载的移动边缘服务器的数量。
进一步的,上述资源调度方法,其中,所述成本模型为;
其中,为潜伏期系数,/>为能耗系数,/>为计算平台的总时延为/>,/>计算平台的总能耗,/>为车辆的任务/>路径/>的总延迟,/>表示子任务/>从卸载车辆到计算位置集合/>内的计算结果/>的总能耗,/>代表任务/>被划分的子任务数量,k为车辆的数量。
进一步的,上述资源调度方法,其中,所述方法还包括:
分别获取本地车辆、闲置车辆、移动边缘服务器、云服务器的任务计算模型;
根据所述本地车辆、闲置车辆、移动边缘服务器、云服务器的任务计算模型确定所述成本模型。
进一步的,上述资源调度方法,其中,所述计算密集型任务卸载到本地计算的总能源消耗的公式为:
其中,表示所述计算密集型任务当中的子任务卸载到本地的计算延迟,/>是车辆/>本地执行任务时的设备功率,/>表示从本地车辆到所有后续子任务的计算位置的计算结果的能源消耗;
所述计算密集型任务卸载到移动边缘服务器的总能源消耗的公式为:
其中,表示所述计算密集任务当中的子任务传输到车辆所在的移动边缘服务器的延迟,/>表示车辆/>的发射功率,/>代表子任务与移动边缘服务器之间的光纤链路的传输延迟,/>是任务在移动边缘服务器上执行时的设备功率,/>是MEC服务器的传输功率,代表子任务在MEC服务器上的计算延迟,/>表示从当前MEC服务器传输计算结果到所有后续子任务位置的能耗;
所述计算密集型任务卸载到云服务器的总能耗为:
其中,是在云服务器上执行任务时的设备功率,/>表示车辆/>的发射功率,/>表示子任务/>从卸载车辆到云服务器的传输延迟,/>表示子任务/>在云服务器上的计算延迟,/>表示闲置车辆到后续所有子任务位置的能量消耗;
所述计算密集型任务卸载到闲置车辆的总能耗表示为:
其中,是任务闲置时辅助车辆的设备功率,/>表示车辆/>的发射功率,/>为从卸载车辆到闲置车辆的子任务/>传输延迟,/>表示闲置车辆中子任务/>的计算延迟。
进一步的,上述资源调度方法,其中,所述方法还包括:
设置粒子群算法和遗传算法的初始参数,并通过多矩阵编码初始化粒子群算法和遗传算法个体;
构造适应度函数,并分别计算粒子群算法中粒子的适应度和遗传算法中染色体的适应度;
更新粒子群算法当中的粒子速度和位置,通过遗传算法使用部分映射交叉和君主方案确定所述资源调度模型最优解。
本发明的另一个目的在于提供一种资源调度装置,用于将车辆上依赖额外计算资源进行计算的计算密集型任务同时卸载到至少一个计算平台,所述计算平台包括本地闲置车辆、移动边缘服务器、云服务器,所述装置包括:
构建模块,用于建立所述车辆与所述移动边缘服务器、闲置车辆、云服务器的网络通信模型,以使得所述车辆与所述移动边缘服务器、闲置车辆、云服务器之间建立通信连接;
获取模块,用于获取所述计算平台的成本模型以及移动边缘服务器的负载平衡模型、资源分配模型,根据所述成本模型、负载平衡模型、资源分配模型以及相关调度信息确定资源调度模型;
确定模块,用于获取所述车辆上的待计算密集型任务的相关信息,根据所述相关信息利用所述资源调度模型确定所述待计算密集型任务的卸载策略;
分发模块,用于将所述卸载策略分发至对应的所述计算平台,并利用所述计算平台根据所述卸载策略对所述待计算密集型任务进行卸载。
本发明的另一个目的在于提供一种可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现上述任意一项所述的方法的步骤。
本发明的另一个目的是提供一种电子设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述的方法的步骤。
本发明通过建立车辆与移动边缘服务器、闲置车辆、云服务器的网络通信模型,以使得车辆与移动边缘服务器、闲置车辆、云服务器之间建立通信连接;获取计算平台的成本模型以及移动边缘服务器的负载平衡模型、资源分配模型,根据成本模型、负载平衡模型、资源分配模型以及相关调度信息确定资源调度模型;获取车辆上的待计算密集型任务的相关信息,根据相关信息利用资源调度模型确定待计算密集型任务的卸载策略;将卸载策略分发至对应的计算平台,并利用计算平台根据卸载策略对待计算密集型任务进行卸载,通过将任务同时卸载到多个计算平台,充分利用计算资源,并且根据负载平衡和计算平台的成本建立资源调度模型,实现资源的合理利用,解决了现有技术中在进行车辆上的计算任务的卸载时计算资源受限而导致卸载任务效果不佳的问题。
附图说明
图1为本发明第一实施例中资源调度方法的流程图;
图2为本发明一实施例中资源调度方法中的计算密集型任务中的通信***模型示意图;
图3为本发明一实施例中资源调度方法中的计算密集型任务中的子任务的依赖拓扑模型示意图;
图4为本发明第一实施例中资源调度方法中的多矩阵编码的示意图;
图5为本发明一实施例中资源调度方法中的不同算法下任务数据大小对***总成本的影响的示意图;
图6为本发明一实施例中资源调度方法中的车辆数量对负载平衡的影响的示意图;
图7为本发明一实施例中资源调度方法中的 数据量因子对***能耗的影响的示意图;
图8为本发明一实施例中资源调度方法中的车辆任务的子任务数对***总成本的影响的示意图;
图9为本发明一实施例中资源调度方法中的闲置车辆数量对***总成本的影响的示意图;
图10为本发明第三实施例中资源调度装置的结构框图。
如下具体实施方式将结合上述附图进一步说明本发明。
具体实施方式
为了便于理解本发明,下面将参照相关附图对本发明进行更全面的描述。附图中给出了本发明的若干实施例。但是,本发明可以以许多不同的形式来实现,并不限于本文所描述的实施例。相反地,提供这些实施例的目的是使对本发明的公开内容更加透彻全面。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。本文所使用的术语“及/或”包括一个或多个相关的所列项目的任意的和所有的组合。
车联网(Internet of Vehicles,IoV)是基于车内网络、车际网络和移动互联网实现智能交通***(ITS)的关键技术。近年来,车联网的持续发展以及5G网络的商业化推动了车联网服务的出现,如图像辅助导航、增强现实驾驶、身份识别、自然语言处理、图像/音频/视频处理等计算密集型和延迟敏感型应用。这些应用通常需要大量的计算资源、存储资源和能源消耗,但车辆终端设备的计算能力难以满足这些应用的最大容忍延迟,同时车辆的能源消耗也是有限的,这将影响车辆用户对车载应用的体验质量(Quality ofExperience, QoE)以及车辆驾驶的安全性。
在车联网(IoV)中,计算任务可以根据它们的延迟特性分为对延迟敏感和非对延迟敏感的任务。对于延迟敏感的任务,例如自动驾驶、AR/VR应用和具有高延迟要求的在线游戏,这些应用与驾驶安全相关,并且需要大量的计算能力,但车辆本身的计算能力和能源是有限的。因此,需要进行计算卸载以满足任务的最大容忍延迟。根据计算特性,计算任务可以分为可分解和不可分解的计算任务。大多数计算任务是可分解任务,因此可以将计算任务分解为多个子任务进行分布式计算卸载,这些子任务可以在多个计算平台上并行计算,从而减轻计算平台的计算压力。然而,任务被分解为多个子任务后,子任务之间存在依赖关系,即前一个子任务的结果是后一个子任务的输入,因此后一个子任务必须等待前一个子任务完成,这也会给计算任务带来额外的延迟。
为了应对车辆计算能力的限制,移动云计算(MCC)被引入到车联网(IoV)中。MCC将云计算的计算能力扩展到车辆,利用云计算应用处理和服务计算密集型应用。这种解决方案是将车辆无法满足的全部或部分计算密集型任务转移到远程云服务器上,然后通过蜂窝网络将计算结果反馈给车辆。例如,在某些研究中,提出了一种针对计算密集型任务的云迁移决策算法,以解决移动设备计算资源有限的问题,该算法根据任务的大小决定是在远程云服务器上还是在移动设备上进行计算。尽管移动云计算可以为车辆提供强大的计算能力,解决车辆计算资源不足的问题,但由于距离因素,远程云服务器通常离车辆较远。此外,对于数据量较大的计算任务,如自动驾驶、图像和语音处理应用,可能会导致高传输延迟,这对于这些应用来说是不可接受的。其次,大量车辆将计算任务卸载到远程云计算中心,可能会给骨干网络带来巨大压力,甚至可能导致网络阻塞或瘫痪,因此,MCC并不是车联网中计算任务卸载的理想解决方案。
为了进一步减少计算任务的传输延迟,移动边缘计算(MEC)被引入到车辆网络中。MEC主要在道路边缘部署服务器,例如在路边单元(RSU)、基站(BS)等地。因此,计算资源和存储资源被推送到道路边缘,使得计算服务能够靠近车辆提供。与移动云计算(MCC)相比,MEC不仅减少了计算任务的传输延迟和对主干网络的压力,而且具有灵活部署的特点,但是MEC的计算能力仍然不足以应对过多车辆需要卸载计算任务时的情况。因此,有研究提出MCC与MEC合作卸载计算任务,通过车辆到基础设施(V2I)将部分计算任务卸载到MEC服务器进行计算,以及通过车辆到网络(V2N)将计算任务卸载到MCC服务器,部分计算也可以在车辆上进行,从而有效克服了单纯卸载到MCC造成的大量传输和返回延迟及网络阻塞问题,同时避免了过多任务卸载时MEC计算资源不足的问题。
因此,本发明提出了一种资源调度方案,使各种计算可以卸载到多个计算平台(即本地车辆、MEC服务器、闲置车辆、云服务器),让计算资源可以充分被应用。
以下将结合具体实施例和附图来详细说明如何充分利用计算资源进行车辆上任务的卸载。
实施例一
请参阅图1,所示为本发明第一实施例中的资源调度方法,用于将车辆上依赖额外计算资源进行计算的计算密集型任务同时卸载到至少一个计算平台,所述计算平台包括本地闲置车辆、移动边缘服务器、云服务器,所述方法包括步骤S10~S12。
步骤S10,建立所述车辆与所述移动边缘服务器、闲置车辆、云服务器的网络通信模型,以使得所述车辆与所述移动边缘服务器、闲置车辆、云服务器之间建立通信连接。
其中,为了将车辆的计算密集型任务同时卸载到多个计算平台,即移动边缘服务器、闲置车辆、云服务器,对多个计算平台的计算资源进行利用,需要事先对其建立通信,具体的,建立车辆与移动边缘服务器、闲置车辆、云服务器的通信模型,更具体的,请参阅图2,在路侧单元(RSU)上部署有移动边缘计算(MEC)服务器,在基站(BS)处设置了调度服务器(DS),其功能是为BS覆盖范围内所有卸载车辆制定统一的卸载策略,并管理和协调其范围内所有MEC服务器的资源分配,以及BS的带宽资源分配。
具体的,定义BS覆盖范围内提供计算卸载服务的MEC服务器集合为。需要进行计算任务卸载的车辆集合为,每辆车都有一个计算密集型任务/>,计算密集型任务集合为,其中/>是可分割的任务,包括若干具有时序和数据依赖性的子任务,每个卸载车辆都有一个对应的闲置车辆提供计算卸载服务,每个MEC服务器/>都有独立的计算资源/>和存储资源/>,计算卸载的决策过程被视为半动态的,在一个调度周期(即几百毫秒)内,车辆集合和计算密集型任务集合保持不变,但在不同的调度周期可能会发生变化。
进一步的,为了实现计算平台之间的通信连接,RSU与RSU之间、RSU与BS之间、BS与云服务器之间分别采用光纤链路。车辆之间、车辆与RSU之间分别使用PC5通信,车辆与BS之间使用蜂窝网络通信。
另外,为了避免蜂窝链路和PC5链路之间的干扰,为蜂窝链路和PC5链路分配不同的带宽资源。基站可用的总带宽为,每个PC5链路可以分配到一个带宽为/>的正交信道。车辆的上行链路和下行链路是瑞利信道。车辆/>和基站BS的上行/下行数据传输率分别定义为/>和/>,公式定义如下:
在该公式中,代表车辆/>的任务/>的基站(BS)带宽分配因子,/>表示车辆/>与BS之间传输链路的信道增益,/>表示车辆与 BS 之间传输链路的高斯白噪声功率,/>表示车辆/>的发射功率,/>表示 BS 的发射功率,当/>分别取为/>和/>时,表示上行链路和下行链路的数据传输速率。
车辆与MEC服务器和闲置车辆之间的上行数据传输速率为/>,而与MEC服务器和闲置车辆之间的下行数据传输速率分别为/>和/>。这个速率可以用特定的公式来表示:
在该公式中,和/>分别代表MEC服务器和闲置车辆的传输功率;/>表示车辆与MEC服务器及闲置车辆之间传输链路的信道增益,/>代表车辆与MEC服务器及闲置车辆之间传输链路的高斯白噪声功率,当/>分别取为/>,/>和/>时,该方程表示车辆/>、MEC服务器和闲置车辆的上行和下行数据传输速率。
同时,为了计算任务可以在本地车辆中处理,或者卸载到移动边缘计算(MEC)服务器、闲置车辆和云服务器进行处理,然后将计算结果返回,云服务器的卸载需要通过蜂窝网络传输到基站(BS),再通过光纤传输到云服务器。因此,任务传输的通信延迟较大。MEC服务器卸载的通信延迟相对较低,但计算能力有限。闲置车辆卸载的特点是通信延迟低,计算能力弱。因此,根据每个计算平台的特点,以及子任务的时序和数据依赖性,合理的卸载策略可以有效降低总体***成本。
其中,本发明主要研究了多辆车辆的计算密集型任务集合。具体的,卸载车辆/>的计算密集型任务/>表示为/>,其中/>代表车辆/>的计算任务/>的数量,/>代表任务/>的最大容忍延迟,/>代表任务/>的数据量,/>代表可以独立计算的子任务数/>,/>代表任务/>被划分的子任务数量。
子任务在时序和数据上具有双重依赖性,子任务依赖于其他子任务的执行结果,然后才能成功执行此任务。如图3所示,子任务之间的依赖关系通过有向无环图(DAG)表示,其中DAG的节点表示可以独立计算的子任务,图的每条边表示子任务之间的依赖关系,权重表示子任务之间传输的数据量。
本发明实施例当中,车辆的卸载计算任务/>的每个子任务被建模为一个十元组。其中,/>代表子任务的数量,/>代表子任务/>的数据量。/>是输出结果数据量,/>是输出数据量系数,表示输出数据量和输入数据量的关系,/>表示子任务/>的卸载位置,分别代表本地计算、卸载到MEC服务器、到闲置车辆和远程的云服务器。/>表示与/>对应的MEC服务器的数量,在其他情况下/>。/>表示子任务/>从卸载车辆/>到计算位置/>的传输延迟,/>表示子任务/>在计算位置/>到下一个计算位置/>的计算延迟和计算结果/>的总和,/>表示/>后续子任务的计算位置集合,例如,图3中/>的后续子任务是/>,/>和/>,因此/>,/>表示当后续子任务卸载到MEC时的MEC服务器索引。/>表示子任务/>从卸载车辆/>到计算位置集合/>内的计算结果/>的总能耗。例如,图2中的依赖任务以子任务结束,因此/>的/>,即计算任务的结果最终返回给车辆/>
步骤S12,获取所述计算平台的成本模型以及移动边缘服务器的负载平衡模型、资源分配模型,根据所述成本模型、负载平衡模型、资源分配模型以及相关调度信息确定资源调度模型。
其中,车辆的卸载请求被资源调度服务器(DS)接收后,需要建立对应的资源调度模型,根据资源调度模型对任务进行卸载,在本发明实施例当中,考虑多平台卸载,DS 范围内的 MEC 服务器资源状态被综合分析,以最小化整个***的成本(延迟和能耗的加权总和)和负载平衡、MEC 服务器资源分配和基站带宽资源分配联合优化。在满足每辆车的计算密集型任务的依赖性,以及延迟和资源限制的最大容忍度的目标下,目的是最小化计算平台的总成本和负载平衡。
因此,分别建立计算平台的成本模型以及移动边缘服务器的负载平衡模型,其中,由于车辆的移动性,MEC服务器下卸载车辆的分布是不均匀的,导致MEC服务器负载不平衡。这不仅使资源没有得到充分利用,而且还导致较差的QoE(质量体验)。因此,在制定卸载策略和资源分配时,需要考虑MEC服务器的负载平衡。在平衡MEC服务器的负载时,首先需要确定服务器的负载。在本发明中,需要MEC服务器的计算资源和存储资源 。因此,本发明中对MEC服务器负载的确定主要从两个方面考虑:计算资源和存储资源,服务器的负载状态表示为/>,其中/>表示/>服务器当前的计算资源使用情况,/>表示/>服务器当前的内存使用情况。因此,/>服务器的负载/>定义为:
其中,,/>为计算资源系数,/>为内存资源系数。
在调度服务器(DS) 调度下的MEC 服务器集合为,则 MEC 服务器集群的负载集合为/>,在本发明中,使用 MEC 服务器集群负载的标准差/>来表示集群的负载平衡:
具体的,MEC服务器资源分配模型的建立如下:
调度服务器计算每辆车辆向每个 MEC 服务器卸载的任务量,以及云服务器的卸载量。根据拍卖算法的竞价思想,计算资源和基站带宽被分配给每辆卸载车辆。具有计算任务的车辆/>为 MEC 服务器的计算资源出价/>
其中,/>。/>表示计算资源请求的权重,/>表示车辆的优先级权重。当/>=n时,/>;当/>时,/>。这是因为当车辆/>位于/>服务器下时,/>的优先级会更高,这可以减少计算结果的回传延迟。
越多的车辆将任务卸载到云服务器,就应该分配越多的带宽资源,这可以减少传输延迟和结果回传延迟。具有计算任务的车辆/>为基站带宽资源出价,定义如下,其中是基站带宽分配因子。
任务的所有子任务卸载到/>服务器后必须首先存储,子任务的计算结果也需要存储,以便传输给后续的子任务。车辆/>的任务/>对/>服务器的存储资源分配为/>
其中,成本模型为计算平台的总的成本计算模型,因此,需要建立每个计算平台的依赖任务计算模型,示例性的,
1)本地车辆计算模型
时,表示子任务/>在本地车辆/>中执行,车辆/>用五元组表示。其中/>代表车辆/>所在的 MEC 服务器的数量。/>是车辆本地计算 1 bit 数据所需的 CPU 循环数,即每比特循环数。/>是车辆/>的本地计算能力,即每秒 CPU 循环数。/>是车辆/>本地执行任务时的设备功率。如果子任务/>在本地执行,传输延迟/>。子任务/>卸载到本地的计算延迟为/>:
在此公式中,表示在MEC服务器之间的光纤连接上/>传输子任务/>的计算结果的传输延迟,而/>代表MEC服务器之间光纤连接的数据传输速率。
在公式中,指的是子任务/>的计算结果/>通过基站(BS)和云服务器之间的光纤链接传输时的延迟,而/>则是指基站和云服务器之间光纤链接的传输速率。
在本发明中,定义了一个函数来模拟任务卸载过程中的延迟和能耗。当时,表明计算结果需要回传的当前位置,因此没有回传计算结果和回传延迟。当,/>时,子任务/>的计算结果需要传输到下一个计算位置,因此存在回传延迟。
由于闲置车辆的数据传输可能需要其他车辆的中继,因此定义车辆与闲置车辆之间的中继延迟为。/>是冲激函数,在/>的条件下,例如当/>时,;当/>时,/>,这表示后续子任务的计算位置是MEC服务器,只有计算结果/>需要传输到MEC服务器,其余延迟为0。
因此,子任务的计算结果/>会从本地车辆传输到后驱动子任务的计算位置集/>的延迟中,并应取最大延迟,即/>为:/>
当车辆的MEC服务器与其当前的MEC服务器相同时,即/>,/> 表示没有MEC服务器之间的传输延迟,因此/>。当/>时,这种情况下,/>,表明车辆/>需要卸载的MEC服务器不是当前的MEC服务器,存在MEC服务器间的传输延迟/>。此时MEC服务器间的传输延/>。局部计算中子任务/>的计算延迟以及计算结果/>传输到后续子任务的计算位置集/>的总延迟为
在该公式中,表示从本地车辆到所有后续子任务的计算位置的计算结果的能源消耗。子任务/>卸载到本地计算的总能源消耗/>的公式为:
2)MEC服务器计算模型
且/>时,子任务/>在/>服务器上执行,这由一个六元组表示。其中,/>代表MEC服务器的数量,/>是MEC服务器处理1比特数据所需的CPU周期数,单位是周期/比特。/>是/>服务器的计算资源,单位是周期/秒。/>是任务在MEC服务器上执行时的设备功率,/>是MEC服务器的传输功率。从卸载车辆/>到MEC服务器的子任务/>的传输延迟/>为:
在该公式中,表示子任务/>传输到车辆所在的MEC服务器的延迟,而/>代表子任务/>与MEC服务器之间的光纤链路的传输延迟。
MEC服务器上子任务的计算延迟/>为:
在这个公式中,表示MEC服务器分配给车辆/>的计算资源,单位是每周期/秒。子任务/>的计算结果/>从MEC服务器到后续子任务的计算位置集/>的延迟被表示为/>:/>
由于闲置车辆通过PC5链路连接到MEC服务器,因此当计算结果从MEC服务器传输到闲置车辆时的返回延迟为/>。/>表示子任务/>的计算结果/>从MEC服务器通过光纤传输到基站(BS)的延迟,而/>是MEC服务器和BS之间光纤链路的传输速率。/>表明,当当前计算位置为MEC服务器时,可能不是同一个MEC服务器,MEC服务器之间可能存在传输延迟。
子任务在MEC服务器上的计算延迟和计算结果/>传输到后续子任务计算位置集合/>的总和表示为:/>。其中,/>代表子任务在MEC服务器上的计算延迟,而/>表示计算结果从MEC服务器传输到后续子任务位置的时间。从当前MEC服务器传输计算结果到所有后续子任务位置的能耗/>则定义如下:
子任务卸载到MEC的总能耗可定义为/>:
3)闲置车辆的计算模型
时,子任务/>在闲置车辆中执行,这些车辆由四元组表示。其中,/>是处理1比特数据时闲置车辆所需的CPU周期数,单位为周期/比特。/>是闲置车辆的计算能力,单位为周期/秒。/>是任务闲置时辅助车辆的设备功率,而/>是闲置辅助车辆的传输功率,从卸载车辆/>到闲置车辆的子任务/>传输延迟/>为:
其中表示子任务/>向闲置车辆传输数据的时延,/>表示车辆与闲置车辆之间的中继时延。/>
闲置车辆中子任务的计算延迟/>为:
将子任务的结果/>从闲置车辆传输到后续子任务计算位置集/>,时延为/>
子任务在闲置车辆中的计算延迟,以及计算结果/>返回到后续子任务的计算位置集/>的总延迟,定义为/>。从闲置车辆到所有后续子任务位置的计算过程的能耗定义为:
将子任务卸载到闲置车辆/>的总能耗表示为:
4)云服务器计算模型
时,子任务/>在云服务器上执行,这由四元组/>表示。其中/>是云服务器处理 1 比特数据所需的 CPU 周期数,单位是周期/比特。/>是云服务器的计算能力,单位是周期/秒。/>是在云服务器上执行任务时的设备功率,/>是云服务器的传输功率。子任务/>从卸载车辆/>到云服务器的传输延迟/>的公式为:
其中表示子任务/>到BS的数据传输时延,/>表示子任务/>到云服务器的光纤链路传输时延,/>表示云服务器到BS的光纤链路传输速率。
子任务在云服务器上的计算延迟为/>:
将子任务的计算结果/>从云服务器传输到后续任务的计算位置集/>的时延/>:/>
云服务器上的子任务返回到后续任务计算位置集/>的计算延时与计算结果/>之和为/>。将计算过程从闲置车辆到后续所有子任务位置/>的能量消耗定义为:
子任务卸载到云服务器/>的总能耗为:
5) ***总成本能耗计算
由于本发明考虑了子任务之间的时间和数据的双重依赖关系。在本发明中,假设车辆采用多天线卸载模式,因此总延迟不是子任务延迟的简单求和。因此,考虑到任务的总时间延迟,本发明采用关键路径法(CPM),这是本发明中的最长路径。所有路径通过有向无环图(DAG)的广度优先遍历算法获得。假设车辆/>的任务/>的路径集为,共有p条路径。
车辆的任务/>路径/>的总延迟为/>:
其中表示同时传输任务/>完成的最大延迟。由于所有非本地计算的任务都需要卸载,因此这部分的延迟应为 MEC、闲置车辆和云服务器中的最大延迟。任务之间的依赖关系必须等到前置任务完成并将结果传递给下一个子任务才开始执行,因此路径/>上的计算延迟和回程延迟应是累加的。
车辆任务/>的总卸载延迟为/>,总能耗为/>。定义车辆集/>中所有计算密集型任务集/>的时延之和,即***总时延为/>,总能耗/>为:
整个***的成本为:/>
其中,,/>为潜伏期系数,/>为能耗系数。本发明中,根据现有的数据统计,本发明设定/>
通过定义四个子任务本地汽车计算模型,MEC服务器计算模型,闲置汽车计算模型,云服务计算模型,将定义好的子任务模型求和,得到最终的能耗。
***的任务卸载和资源分配被建模为:
其中,表示目标函数中***总成本的权重,而/>表示目标函数中负载平衡的权重。/>是所有车辆的任务依赖拓扑矩阵,/>中的第/>个元素对应于车辆/>的计算任务/>的拓扑向量/>。/>是所有车辆计算任务的卸载矩阵。/>中的第/>个元素/>对应于车辆/>的计算任务/>的卸载策略,即对应于拓扑向量/>中子任务的卸载位置。/>表示卸载位置为MEC 时的 MEC 服务器数量。/>,当/>= 0 时,表示不向 MEC 服务器卸载。/>和/>分别是所有 MEC 服务器的计算资源分配矩阵和存储资源分配矩阵。/>中的第/>行对应于/>服务器的计算资源分配向量,/>中的第/>行对应于 MEC 服务器的存储资源分配向量。/>是 BS 的带宽资源分配向量,向量中的元素代表每辆车的带宽分配系数/>
在约束条件下,表示车辆/>将/>分割成多个相互依赖的子任务/>的数据量与任务/>的数据量相等;/>表示完成车辆/>的计算密集型任务/>的延迟时间/>不能超过任务/>的最大容忍延迟时间/>;/>意味着/>服务器分配给车辆/>的计算资源/>,不能超过/>服务器的总计算资源/>,且/>服务器分配给所有卸载车辆的计算资源的总和也不能超过服务器的总计算资源/>;/>表明车辆/>的基站带宽分配因子/>应大于 0 且小于 1,所有车辆/>的基站带宽分配之和应小于基站的总带宽/>。/>代表所有车辆向/>服务器卸载的子任务的数据量和计算结果之和,不能超过/>服务器的总存储资源/>;/>表示离散变量的范围。
步骤S12,获取所述车辆上的待计算密集型任务的相关信息,根据所述相关信息利用所述资源调度模型确定所述待计算密集型任务的卸载策略。
其中,需要卸载任务的卸载车辆上传其计算密集型任务的相关信息,如子任务的依赖矩阵、子任务的大小等。车辆的卸载请求被资源调度服务器(DS)接收后,基于上传的信息考虑多平台卸载。DS范围内的 MEC 服务器资源状态被综合分析,以最小化整个***的成本(延迟和能耗的加权总和)和负载平衡。卸载、MEC 服务器资源分配和基站带宽资源分配被联合优化。确定每个计算平台对应的需要卸载的任务信息,即确定待计算密集型任务的卸载策略。
步骤S13,将所述卸载策略分发至对应的所述计算平台,并利用所述计算平台根据所述卸载策略对所述待计算密集型任务进行卸载。
其中,卸载车辆与闲置车辆、移动边缘服务器以及云服务器之间建立有通信连接,卸载策略可以分别返回给闲置车辆、移动边缘服务器以及云服务器。
综上,本发明上述实施例中的资源调度方法,通过建立车辆与移动边缘服务器、闲置车辆、云服务器的网络通信模型,以使得车辆与移动边缘服务器、闲置车辆、云服务器之间建立通信连接;获取计算平台的成本模型以及移动边缘服务器的负载平衡模型、资源分配模型,根据成本模型、负载平衡模型、资源分配模型以及相关调度信息确定资源调度模型;获取车辆上的待计算密集型任务的相关信息,根据相关信息利用资源调度模型确定待计算密集型任务的卸载策略;将卸载策略分发至对应的计算平台,并利用计算平台根据卸载策略对待计算密集型任务进行卸载,通过将任务同时卸载到多个计算平台,充分利用计算资源,并且根据负载平衡和计算平台的成本建立资源调度模型,实现资源的合理利用,解决了现有技术中在进行车辆上的计算任务的卸载时计算资源受限而导致卸载任务效果不佳的问题。
实施例二
本实施例当中的资源调度方法与实施例一当中的资源调度方法的不同之处在于:
所述方法还包括:
设置粒子群算法和遗传算法的初始参数,并通过多矩阵编码初始化粒子群算法和遗传算法个体;
构造适应度函数,并分别计算粒子群算法中粒子的适应度和遗传算法中染色体的适应度;
更新粒子群算法当中的粒子速度和位置,通过遗传算法使用部分映射交叉和君主方案确定所述资源调度模型最优解。
其中,由资源调度模型的数学模型可以看出,目标函数中包含了如和/>这样的离散整数变量,以及如/>和/>这样的连续变量。因此,这个优化问题是一个混合整数非线性规划(MINLP)问题。目前,许多研究使用智能优化算法来解决 MINLP 问题。粒子群优化(PSO)算法具有记忆性和良好的收敛性,但粒子是单向信息传递,容易陷入局部最优。遗传算法(GA)中染色体之间的双向信息传递具有良好的全局优化效果,但收敛速度慢。针对本发明的目标函数,对 PSO 和 GA 算法进行改进,提出了一种自适应粒子群遗传混合算法,这不仅使算法具有快速收敛能力,还具有更好的全局搜索能力。为了确保任务执行时所有前驱任务先执行,本发明使用有向无环图(DAG)拓扑排序算法来解决它。不同的拓扑排序也会导致不同的结果,因此有必要获得所有拓扑排序结果。使用爬山搜索算法对不同排序结果进行局部搜索以获得最优结果。具体解决步骤如下:
1)初始化粒子和遗传种群
根据目标函数,需要解决这六个矩阵。因此,本发明改进了粒子群优化(PSO)算法和遗传算法(GA)的编码方法,使用了多矩阵编码方法。多矩阵编码的示例显示在图4中。粒子群和遗传群由六个大型矩阵/>、/>、/>、/>、/>、/>组成,其中/>是种群大小,/>是车辆数。为了获得第/>个粒子/染色体的编码,只需要取出每个矩阵中对应的行到/>,并相应进行操作。
拓扑矩阵的初始化是从车辆任务的所有拓扑结构中随机选择的。卸载策略矩阵和MEC索引矩阵/>的随机数初始化在(0,1]区间内,然后映射为整数。当MEC服务器数量n=3时,映射关系如下所示。
整个进化过程主要是为了计算卸载策略矩阵和MEC编号矩阵/>,因为在确定了卸载策略后,可以根据卸载结果选择卸载MEC服务器,并进行资源分配,以及实现MEC服务器的负载平衡。
2)构造适应度函数
目标优化模型旨在在约束条件下最小化***成本和负载平衡。使用粒子群遗传混合算法时,需要将约束问题转化为非约束问题,而惩罚函数只是优化算法中常用的方法之一。本发明使用自适应惩罚函数来约束目标函数。
在目标函数中,C1和C6约束在编码过程中处理,而在竞价分配资源时,C3、C4和C5约束必然满足。因此,只需对C2约束进行惩罚,从而可以得出适应度函数如下:
在这些公式中,值设定为1000,因为需要在适应度函数中提高负载均衡的比重。是惩罚系数,/>是可行解的比例。/>与/>成反比,/>越大意味着解决方案越可行,因此/>应相应减少。当/>时,表明当前群体没有可行解;而当/>时,意味着当前群体完全是可行解。由于在初始迭代阶段,种群中可行解的数量较低,因此为了引导搜索进入可行区域,应设定较高的惩罚系数。
3)粒子群优化和遗传算法的操作
其中,和/>是初始的最小和最大惯性系数,/>是第/>次迭代中第一个粒子的适应度值,/>是第/>次迭代中所有粒子的平均适应度值,/>是第/>次迭代中所有粒子的最小适应度值。随着迭代次数的增加,惯性权重逐渐减小,从而在早期阶段具有更好的全局搜索能力,在后期阶段具有更好的局部搜索能力。
质点速度和位置的更新策略根据如下公式:
其中C1和C2为学习因子,和/>分别为个体历史最优位置和种群全局最优位置。
4) 选择交叉和变异操作:在遗传算法中,如果交叉概率太低,会影响迭代过程中种群的丰富性,导致收敛速度慢,但过大的交叉概率会影响优秀个体的遗传。小的变异概率不易产生新个体,影响种群多样性,过大的变异概率会陷入局部最优。因此,本发明采用自适应交叉概率和变异概率。当种群的适应度值分散时,表明种群丰富,应降低交叉概率和变异概率。相反,当种群的适应度值相对集中时,表明种群丰富度不足,应增加交叉概率和变异概率。
自适应交叉概率:
自适应突变概率:
在这些公式中,是当前种群的平均适应度,/>是当前种群的最大适应度,/>和/>是(0,1]范围内的常数。部分映射交叉(PMX)和君主方案被组合用于选择和交叉操作。首先,根据适应度值将种群按升序排列,并将最优个体与其他偶数编号的个体进行交叉,每次生成两个新个体。其次,在交叉之后,对新生成的个体进行变异以生成子群,然后计算它们的适应度值。之后,它们与父群合并,并根据适应度值按升序排列。取前N个个体作为下一步操作的新群体。
采用PMX和君主方案选择交叉和变异算法如下:
a)初始化:设定每次交叉点的数量。
b)生成一组非重复的随机整数,用作交叉点。
c)选择两个父代进行交叉和变异。
d)将父代矩阵转换为一行,以便进行 PMX 交叉。
e)基于交叉点进行 PMX 交叉操作,生成两个子代。
f)对生成的子代进行变异操作。
g)如果随机数小于变异概率,那么子代的一个元素将被新的随机值替换。
h)将子代映射回整数矩阵,并得到相应的 F、W、B 矩阵。
i)重复上述步骤,直到所有的父代都被处理。
j)使用攀爬搜索策略搜索拓扑矩阵的拓扑路径。
k)更新新的矩阵 K。
l)将父代和子代合并后,对合并的种群按适应度排序。
m)按适应度降序对合并后的种群排序。
n)选择顶部 N 个个体作为新的种群。
为了验证本发明算法的有效性。在初始模拟中,将环境考虑一个部署在半径为1公里的圆形区域内的蜂窝网络,车辆随机分布在这个蜂窝网络区域内。MEC服务器部署在路边单元(RSU)内,提供存储和计算资源。为了简化问题,实验环境只考虑一个拥有n=3个MEC服务器的基站,即3个RSU,车辆的数量 k 最初设置为12,相应的带宽和计算能力设置见下表。
对于计算任务,本发明考虑点积运算,这是深度学习中最常用的操作,并根据操作数量随机循环点积以生成相应的计算任务。为了与其他算法进行比较。模拟并比较了随机算法、PSAO 算法以及 JODTS 算法。比较算法的详细信息如下所述:
随机算法:依赖任务随机卸载到本地、MEC服务器、闲置车辆和云服务器进行计算。
PSAO算法:基于改进粒子群算法的卸载策略,计算任务卸载到本地和MEC服务器进行计算。
JODTS算法:基于改进遗传算法的卸载策略,计算任务卸载到本地、MEC服务器和云服务器进行计算。
仿真结果分析
在全局优化方面,本发明算法表现良好,其次是JODTS算法,PSAO算法表现最差。因为粒子群算法是单向传递信息,而遗传算法是双向的,所以粒子群算法的收敛速度比遗传算法快,但它容易陷入局部最优,因此粒子群优化能力不如遗传算法。本发明算法结合了两种算法的特点,并增加了爬山搜索策略进行局部二次搜索,因此提高了全球优化能力和收敛性能。在仿真的模拟中,使用了一台配备有英特尔(R) 酷睿(TM) i7-13700K CPU @1.80GHz, 2.30 GHz, 16 GB RAM的笔记本电脑,并且测量了算法的计算时间。所提出的算法、JODTS和PSAO的运行时间分别为30毫秒、57毫秒和82毫秒。可以预见,如果算法运行在更强大的边缘服务器上,计算时间将进一步减少,并且能够满足对延迟敏感的任务卸载应用。
图 5显示了在 DS 下车辆数量和 MEC 服务器数量固定时,计算任务对***总成本的影响。从图中可以看出,随着计算任务的增加,四种算法的***总成本也随之增加。所提出算法的总***成本最低,约为随机算法的49.15%,PSAO算法的68.10%和JODTS算法的87.62%。并且当计算任务量超过12时,成本增加显著,因为计算任务量过大,导致数据传输和回传开销以及MEC计算开销显著增加。从图中可以看出,本算法中每辆车的平均延迟小于计算任务的最大容忍延迟,表明该算法在满足最大容忍延迟的同时,能最小化总***成本。图6 显示了在 DS 下固定 MEC 服务器数量、计算任务数量和子任务数量时,车辆数量对负载平衡的影响。从图中可以看出,与其他三种算法相比,所提出的算法具有最小的负载平衡增长和最小的增量,表明所提出的算法能有效地平衡 DS 下的 MEC 服务器负载。由于车辆移动性的不均匀分布,随机算法的负载平衡最大且波动。
图7显示,在 DS 下车辆数量、MEC服务器数量和计算任务量固定的条件下,***总成本随着输出数据量因子δ的增加而增加。与其他三种算法相比,本算法具有最小的***总成本。可以观察到,输出数据量对***的总成本影响有限,这是因为输出数据量相对较小,加之在本发明中MEC服务器之间、MEC与基站(BS)之间、基站与云服务器之间使用了光纤连接,从而提供了较大的带宽,因此,***的输出数据量对***总成本的影响不大。
图8为DS下固定车辆数、MEC服务器数和计算任务数时,车辆任务子任务数对***总成本的影响。从图中可以看出,四种算法的***总成本都随着子任务数的增加而增加,当子任务数超过19时,增加的幅度比较明显。原因是当子任务数量增加时,任务之间的依赖关系变得复杂,从而增加了大量的传输开销。当子任务的数量超过一定数量时,后续的子任务可能会等待前一个子任务的计算完成,从而导致等待延迟。与其他算法相比,本发明算法具有最小的***总开销和最小的增量,能够有效地处理子任务之间的依赖关系。
最后,评估了在不同算法下,闲置车辆对总体***成本的影响,如图9所示。从图中可以看出,随着***中闲置车辆数量的增加,不同算法的总***成本有所下降,而本发明提出的算法在***中不同的闲置车辆数量下保持了较低的***成本。这是因为本发明的算法采用了最优的计算任务卸载策略,考虑了计算任务的时序和数据依赖性。
综上,本发明上述实施例中的资源调度方法,通过建立车辆与移动边缘服务器、闲置车辆、云服务器的网络通信模型,以使得车辆与移动边缘服务器、闲置车辆、云服务器之间建立通信连接;获取计算平台的成本模型以及移动边缘服务器的负载平衡模型、资源分配模型,根据成本模型、负载平衡模型、资源分配模型以及相关调度信息确定资源调度模型;获取车辆上的待计算密集型任务的相关信息,根据相关信息利用资源调度模型确定待计算密集型任务的卸载策略;将卸载策略分发至对应的计算平台,并利用计算平台根据卸载策略对待计算密集型任务进行卸载,通过将任务同时卸载到多个计算平台,充分利用计算资源,并且根据负载平衡和计算平台的成本建立资源调度模型,实现资源的合理利用,解决了现有技术中在进行车辆上的计算任务的卸载时计算资源受限而导致卸载任务效果不佳的问题。
实施例三
请参阅图10,所示为本发明第四实施例中提出的资源调度装置,用于将车辆上依赖额外计算资源进行计算的计算密集型任务同时卸载到至少一个计算平台,所述计算平台包括本地闲置车辆、移动边缘服务器、云服务器,所述装置包括:
构建模块100,用于建立所述车辆与所述移动边缘服务器、闲置车辆、云服务器的网络通信模型,以使得所述车辆与所述移动边缘服务器、闲置车辆、云服务器之间建立通信连接;
获取模块200,用于获取所述计算平台的成本模型以及移动边缘服务器的负载平衡模型、资源分配模型,根据所述成本模型、负载平衡模型、资源分配模型以及相关调度信息确定资源调度模型;
确定模块300,用于获取所述车辆上的待计算密集型任务的相关信息,根据所述相关信息利用所述资源调度模型确定所述待计算密集型任务的卸载策略;
分发模块400,用于将所述卸载策略分发至对应的所述计算平台,并利用所述计算平台根据所述卸载策略对所述待计算密集型任务进行卸载。
进一步地,在本发明一些可选的实施例当中,其中,所述资源调度模型为:
其中,表示目标函数中***总成本的权重,而/>表示目标函数中负载平衡的权重,/>是所有车辆的任务依赖拓扑矩阵,/>中的第/>个元素对应于车辆的计算任务/>的拓扑向量/>,/>是所有车辆计算任务的卸载矩阵,/>中的第/>个元素对应于车辆的计算任务/>的卸载策略,即对应于拓扑向量/>中子任务的卸载位置,/>表示卸载位置为移动边缘服务器时的移动边缘服务器数量,当/>= 0 时,表示不向移动边缘服务器卸载,/>、/>分别是所有移动边缘服务器的计算资源分配矩阵和存储资源分配矩阵,/>中的第/>行对应于第n个移动边缘服务器的计算资源分配向量/>,/>中的第/>行对应于移动边缘服务器的存储资源分配向量,/>是基站的带宽资源分配向量,/>,向量中的元素代表每辆车的带宽分配系数;
表示车辆将/>分割成多个相互依赖的子任务/>的数据量与任务/>的数据量相等;/>表示完成车辆的计算密集型任务/>的延迟时间/>不能超过任务/>的最大容忍延迟时间/>;/>意味着/>服务器分配给车辆的计算资源/>,不能超过/>服务器的总计算资源,且/>服务器分配给所有卸载车辆的计算资源的总和也不能超过/>服务器的总计算资源/>;/>表明车辆的基站带宽分配因子/>应大于0且小于1,所有车辆的基站带宽分配之和应小于基站的总带宽/>,/>代表所有车辆向/>服务器卸载的子任务的数据量和计算结果之和,不能超过/>服务器的总存储资源/>;/>表示离散变量的范围。
进一步地,在本发明一些可选的实施例当中,其中,所述负载平衡模型为:
其中,,/>为移动边缘服务器的计算资源系数,/>为移动边缘服务器的内存资源系数,/>为移动边缘服务器资源分配模型,/>表示/>服务器当前的计算资源使用情况,/>表示/>服务器当前的内存使用情况,m为可参与卸载的移动边缘服务器的数量。
进一步地,在本发明一些可选的实施例当中,其中,所述成本模型为;
其中,为潜伏期系数,/>为能耗系数,/>为计算平台的总时延为/>,/>计算平台的总能耗,/>为车辆的任务/>路径/>的总延迟,/>表示子任务/>从卸载车辆到计算位置集合/>内的计算结果/>的总能耗,/>代表任务/>被划分的子任务数量,k为车辆的数量。
进一步地,在本发明一些可选的实施例当中,其中,所述***还包括:
分别获取本地车辆、闲置车辆、移动边缘服务器、云服务器的任务计算模型;
根据所述本地车辆、闲置车辆、移动边缘服务器、云服务器的任务计算模型确定所述成本模型。
进一步地,在本发明一些可选的实施例当中,其中,所述计算密集型任务卸载到本地计算的总能源消耗的公式为:
其中,表示所述计算密集型任务当中的子任务卸载到本地的计算延迟,/>是车辆/>本地执行任务时的设备功率,/>表示从本地车辆到所有后续子任务的计算位置的计算结果的能源消耗;
所述计算密集型任务卸载到移动边缘服务器的总能源消耗的公式为:
其中,表示所述计算密集任务当中的子任务传输到车辆所在的移动边缘服务器的延迟,/>表示车辆/>的发射功率,/>代表子任务与移动边缘服务器之间的光纤链路的传输延迟,/>是任务在移动边缘服务器上执行时的设备功率,/>是MEC服务器的传输功率,代表子任务在MEC服务器上的计算延迟,/>表示从当前MEC服务器传输计算结果到所有后续子任务位置的能耗;
所述计算密集型任务卸载到云服务器的总能耗为:
其中,是在云服务器上执行任务时的设备功率,/>表示车辆/>的发射功率,/>表示子任务/>从卸载车辆到云服务器的传输延迟,/>表示子任务/>在云服务器上的计算延迟,/>表示闲置车辆到后续所有子任务位置的能量消耗;
所述计算密集型任务卸载到闲置车辆的总能耗表示为:
其中,是任务闲置时辅助车辆的设备功率,/>表示车辆/>的发射功率,/>为从卸载车辆到闲置车辆的子任务/>传输延迟,/>表示闲置车辆中子任务/>的计算延迟。
进一步地,在本发明一些可选的实施例当中,其中,所述方法还包括:
设置粒子群算法和遗传算法的初始参数,并通过多矩阵编码初始化粒子群算法和遗传算法个体;
构造适应度函数,并分别计算粒子群算法中粒子的适应度和遗传算法中染色体的适应度;
更新粒子群算法当中的粒子速度和位置,通过遗传算法使用部分映射交叉和君主方案确定所述资源调度模型最优解。
上述各模块被执行时所实现的功能或操作步骤与上述方法实施例大体相同,在此不再赘述。
实施例四
本发明另一方面还提供一种可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现上述实施例一至二中任意一个所述的方法的步骤。
实施例五
本发明另一方面还提供一种电子设备,所述电子设备包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述实施例一至二中任意一个所述的方法的步骤。
以上各个实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
本领域技术人员可以理解,在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读存储介质中,以供指令执行***、装置或设备(如基于计算机的***、包括处理器的***或其他可以从指令执行***、装置或设备取指令并执行指令的***)使用,或结合这些指令执行***、装置或设备而使用。就本说明书而言,“计算机可读存储介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行***、装置或设备或结合这些指令执行***、装置或设备而使用的装置。
计算机可读存储介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读存储介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行***执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或它们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种资源调度方法,其特征在于,用于将车辆上依赖额外计算资源进行计算的计算密集型任务同时卸载到至少一个计算平台,所述计算平台包括本地闲置车辆、移动边缘服务器、云服务器,所述方法包括:
建立所述车辆与所述移动边缘服务器、闲置车辆、云服务器的网络通信模型,以使得所述车辆与所述移动边缘服务器、闲置车辆、云服务器之间建立通信连接;
获取所述计算平台的成本模型以及移动边缘服务器的负载平衡模型、资源分配模型,根据所述成本模型、负载平衡模型、资源分配模型以及相关调度信息确定资源调度模型;
获取所述车辆上的待计算密集型任务的相关信息,根据所述相关信息利用所述资源调度模型确定所述待计算密集型任务的卸载策略;
将所述卸载策略分发至对应的所述计算平台,并利用所述计算平台根据所述卸载策略对所述待计算密集型任务进行卸载。
2.根据权利要求1所述的资源调度方法,其特征在于,所述资源调度模型为:
其中,表示目标函数中***总成本的权重,而/> 表示目标函数中负载平衡的权重,/>是所有车辆的任务依赖拓扑矩阵,/>中的第/>个元素对应于车辆的计算任务/>的拓扑向量/>,/>是所有车辆计算任务的卸载矩阵,/>中的第/>个元素对应于车辆的计算任务/>的卸载策略,即对应于拓扑向量 />中子任务的卸载位置,/>表示卸载位置为移动边缘服务器时的移动边缘服务器数量,当 />= 0 时,表示不向移动边缘服务器卸载,/>、/>分别是所有移动边缘服务器的计算资源分配矩阵和存储资源分配矩阵,/>中的第/>行对应于第n个移动边缘服务器的计算资源分配向量/>,/>中的第/>行对应于移动边缘服务器的存储资源分配向量/>是基站的带宽资源分配向量,/>,向量中的元素代表每辆车的带宽分配系数;
表示车辆将/>分割成多个相互依赖的子任务/>的数据量与任务/>的数据量相等;/>表示完成车辆的计算密集型任务/>的延迟时间/>不能超过任务/>的最大容忍延迟时间/>;/>意味着/>服务器分配给车辆的计算资源/>,不能超过/>服务器的总计算资源/>,且服务器分配给所有卸载车辆的计算资源的总和也不能超过/>服务器的总计算资源;/>表明车辆的基站带宽分配因子/>应大于0且小于1,所有车辆的基站带宽分配之和应小于基站的总带宽/>,/>代表所有车辆向/>服务器卸载的子任务的数据量和计算结果之和,不能超过/>服务器的总存储资源/>;/>表示离散变量的范围。
3.根据权利要求1所述的资源调度方法,其特征在于,所述负载平衡模型为:
其中,,/>为移动边缘服务器的计算资源系数,/>为移动边缘服务器的内存资源系数,/>为移动边缘服务器资源分配模型,/> 表示 /> 服务器当前的计算资源使用情况,/> 表示 /> 服务器当前的内存使用情况,m为可参与卸载的移动边缘服务器的数量。
4.根据权利要求1所述的资源调度方法,其特征在于,所述成本模型为;
其中,为潜伏期系数,/>为能耗系数,/>为计算平台的总时延为/>计算平台的总能耗,/>为车辆的任务/>路径/>的总延迟,/>表示子任务/>从卸载车辆到计算位置集合/>内的计算结果/>的总能耗,/>代表任务/>被划分的子任务数量,k为车辆的数量。
5.根据权利要求4所述的资源调度方法,其特征在于,所述方法还包括:
分别获取本地车辆、闲置车辆、移动边缘服务器、云服务器的任务计算模型;
根据所述本地车辆、闲置车辆、移动边缘服务器、云服务器的任务计算模型确定所述成本模型。
6.根据权利要求5所述的资源调度方法,其特征在于,所述计算密集型任务卸载到本地计算的总能源消耗的公式为:
其中,表示所述计算密集型任务当中的子任务卸载到本地的计算延迟,/> 是车辆/>本地执行任务时的设备功率,/>表示从本地车辆到所有后续子任务的计算位置的计算结果的能源消耗;
所述计算密集型任务卸载到移动边缘服务器的总能源消耗的公式为:
其中,表示所述计算密集任务当中的子任务传输到车辆所在的移动边缘服务器的延迟,/> 表示车辆 />的发射功率,/>代表子任务与移动边缘服务器之间的光纤链路的传输延迟,/>是任务在移动边缘服务器上执行时的设备功率,/>是MEC服务器的传输功率,/>代表子任务在MEC服务器上的计算延迟,/>表示从当前MEC服务器传输计算结果到所有后续子任务位置的能耗;
所述计算密集型任务卸载到云服务器的总能耗为:
其中, 是在云服务器上执行任务时的设备功率,/> 表示车辆 />的发射功率,/>表示子任务/>从卸载车辆到云服务器的传输延迟,/>表示子任务/>在云服务器上的计算延迟,/>表示闲置车辆到后续所有子任务位置的能量消耗;
所述计算密集型任务卸载到闲置车辆的总能耗表示为:
其中,是任务闲置时辅助车辆的设备功率,/> 表示车辆 />的发射功率,/>为从卸载车辆到闲置车辆的子任务/>传输延迟,/>表示闲置车辆中子任务/>的计算延迟。
7.根据权利要求2所述的资源调度方法,其特征在于,所述方法还包括:
设置粒子群算法和遗传算法的初始参数,并通过多矩阵编码初始化粒子群算法和遗传算法个体;
构造适应度函数,并分别计算粒子群算法中粒子的适应度和遗传算法中染色体的适应度;
更新粒子群算法当中的粒子速度和位置,通过遗传算法使用部分映射交叉和君主方案确定所述资源调度模型最优解。
8.一种资源调度装置,其特征在于,用于将车辆上依赖额外计算资源进行计算的计算密集型任务同时卸载到至少一个计算平台,所述计算平台包括本地闲置车辆、移动边缘服务器、云服务器,所述装置包括:
构建模块,用于建立所述车辆与所述移动边缘服务器、闲置车辆、云服务器的网络通信模型,以使得所述车辆与所述移动边缘服务器、闲置车辆、云服务器之间建立通信连接;
获取模块,用于获取所述计算平台的成本模型以及移动边缘服务器的负载平衡模型、资源分配模型,根据所述成本模型、负载平衡模型、资源分配模型以及相关调度信息确定资源调度模型;
确定模块,用于获取所述车辆上的待计算密集型任务的相关信息,根据所述相关信息利用所述资源调度模型确定所述待计算密集型任务的卸载策略;
分发模块,用于将所述卸载策略分发至对应的所述计算平台,并利用所述计算平台根据所述卸载策略对所述待计算密集型任务进行卸载。
9.一种可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1至7中任意一项所述的方法的步骤。
10.一种车辆,其特征在于,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如权利要求1至7任一所述的方法的步骤。
CN202410527254.2A 2024-04-29 2024-04-29 一种资源调度方法、***、存储介质及车辆 Active CN118113484B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410527254.2A CN118113484B (zh) 2024-04-29 2024-04-29 一种资源调度方法、***、存储介质及车辆

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410527254.2A CN118113484B (zh) 2024-04-29 2024-04-29 一种资源调度方法、***、存储介质及车辆

Publications (2)

Publication Number Publication Date
CN118113484A true CN118113484A (zh) 2024-05-31
CN118113484B CN118113484B (zh) 2024-07-23

Family

ID=91219466

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410527254.2A Active CN118113484B (zh) 2024-04-29 2024-04-29 一种资源调度方法、***、存储介质及车辆

Country Status (1)

Country Link
CN (1) CN118113484B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170034841A1 (en) * 2013-12-10 2017-02-02 Ntt Docomo, Inc. Method and apparatus for scheduling, load balancing, and pilot-assignments in reciprocity-based mimo cellular deployments
CN111818168A (zh) * 2020-06-19 2020-10-23 重庆邮电大学 一种车联网中自适应联合计算卸载与资源分配方法
CN114614878A (zh) * 2022-02-14 2022-06-10 哈尔滨工业大学(深圳) 星地网络中基于矩阵-向量乘法任务的编码计算分配方法
CN117528649A (zh) * 2023-06-29 2024-02-06 重庆大学 建立端边云***架构的方法、任务卸载和资源分配优化方法及端边云***架构

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170034841A1 (en) * 2013-12-10 2017-02-02 Ntt Docomo, Inc. Method and apparatus for scheduling, load balancing, and pilot-assignments in reciprocity-based mimo cellular deployments
CN111818168A (zh) * 2020-06-19 2020-10-23 重庆邮电大学 一种车联网中自适应联合计算卸载与资源分配方法
CN114614878A (zh) * 2022-02-14 2022-06-10 哈尔滨工业大学(深圳) 星地网络中基于矩阵-向量乘法任务的编码计算分配方法
CN117528649A (zh) * 2023-06-29 2024-02-06 重庆大学 建立端边云***架构的方法、任务卸载和资源分配优化方法及端边云***架构

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张海波;荆昆仑;刘开健;贺晓帆;: "车联网中一种基于软件定义网络与移动边缘计算的卸载策略", 电子与信息学报, no. 03, 15 March 2020 (2020-03-15) *

Also Published As

Publication number Publication date
CN118113484B (zh) 2024-07-23

Similar Documents

Publication Publication Date Title
Yang et al. A parallel intelligence-driven resource scheduling scheme for digital twins-based intelligent vehicular systems
CN112512056B (zh) 一种移动边缘计算网络中多目标优化的计算卸载方法
CN110493360B (zh) 多服务器下降低***能耗的移动边缘计算卸载方法
CN111445111B (zh) 一种基于边缘协同的电力物联网任务分配方法
Cui et al. A novel offloading scheduling method for mobile application in mobile edge computing
CN114189892A (zh) 一种基于区块链和集体强化学习的云边协同物联网***资源分配方法
CN111538570B (zh) 一种面向节能和QoS保障的VNF部署方法及装置
CN110570075B (zh) 一种电力业务边缘计算任务分配方法及装置
CN111984419B (zh) 一种边缘环境可靠性约束的复杂任务计算迁移方法
CN112512013B (zh) 基于学习剪枝的车联网移动边缘计算任务卸载方法及***
CN108111335B (zh) 一种调度和链接虚拟网络功能的方法及***
CN113645273B (zh) 基于业务优先级的车联网任务卸载方法
CN113867843B (zh) 一种基于深度强化学习的移动边缘计算任务卸载方法
CN112702714B (zh) 一种无人机协作式的车联网运算任务卸载方法
CN112153145A (zh) 5g边缘环境下面向车联网的计算任务卸载方法及装置
CN115297171B (zh) 一种蜂窝车联网分级决策的边缘计算卸载方法及***
CN113641417B (zh) 一种基于分支定界法的车辆安全任务卸载方法
CN116541106B (zh) 计算任务卸载方法、计算设备及存储介质
CN115499875B (zh) 一种卫星互联网任务卸载方法、***以及可读存储介质
CN113918240A (zh) 任务卸载方法及装置
CN113687875A (zh) 一种车联网中车辆任务卸载方法及装置
CN116893861A (zh) 基于空地协同边缘计算的多智能体协作依赖任务卸载方法
CN116321298A (zh) 车联网中一种基于深度强化学习的多目标联合优化任务卸载策略
CN114928611A (zh) 一种基于IEEE802.11p协议的车联网节能计算卸载优化方法
CN117579701A (zh) 一种移动边缘网络计算卸载方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant