CN115220898A - 一种基于深度强化学习的任务调度方法、***、装置及介质 - Google Patents

一种基于深度强化学习的任务调度方法、***、装置及介质 Download PDF

Info

Publication number
CN115220898A
CN115220898A CN202210983066.1A CN202210983066A CN115220898A CN 115220898 A CN115220898 A CN 115220898A CN 202210983066 A CN202210983066 A CN 202210983066A CN 115220898 A CN115220898 A CN 115220898A
Authority
CN
China
Prior art keywords
task
tasks
virtual machine
reinforcement learning
deep reinforcement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202210983066.1A
Other languages
English (en)
Inventor
闫乐之
赵加坤
孙琨
皇志富
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Zhixin Credit Evaluation Consulting Co ltd
Original Assignee
Jiangsu Zhixin Credit Evaluation Consulting Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Zhixin Credit Evaluation Consulting Co ltd filed Critical Jiangsu Zhixin Credit Evaluation Consulting Co ltd
Priority to CN202210983066.1A priority Critical patent/CN115220898A/zh
Publication of CN115220898A publication Critical patent/CN115220898A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • G06F9/4881Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • G06F9/5016Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种基于深度强化学习的任务调度方法、***、装置及介质,包括:采集用户的行为数据,并形成数据集;对数据集中的行为数据进行读取,生成任务,并将任务信息按照任务到达的先后顺序以队列的形式进行存储;对任务进行识别、聚类和处理,将任务划分成不同的类型;基于任务信息和基于深度强化学习的任务分配策略,选取对应类型的任务,调度任务信息,满足用户需要。本发明能够对任务资源进行调度,提高资源利用率,降低运维成本。

Description

一种基于深度强化学习的任务调度方法、***、装置及介质
技术领域
本发明属于深度学习领域,涉及一种基于深度强化学习的任务调度方法、***、装置及介质。
背景技术
云计算作为一种大规模的异构服务器集群,允许用户通过互联网以低廉的价格租用高性能的服务,云端处理大量应用的同时对云计算平台任务调度的性能要求也急剧加升,一方面,大量终端用户提交的任务具有动态不确定性,任务到达时间及任务所需资源未知,另一方面异构性在云环境中很常见,首先,用户提交的大规模请求是异构的,如计算密集型和I/O密集型,其次,云环境下部署的不同服务器的硬件配置是异构的,动态工作负载会导致同处虚拟机之间的资源竞争,因此,如何实现大规模动态异构任务与虚拟机实例之间的映射,同时保证虚拟机实例之间的负载均衡,是学术界和研究的热点。
为了应对上述挑战,现有的方法大多侧重于运用排队论、控制论等理论研究,将调度***建立为数学模型,对作业调度方案进行理论分析。但是,由于这些解决方案对时间和资源非常敏感,因此它们不适用于动态负载,此外,启发式调度算法将任务分配视为NP问题,在静态环境下进行任务调度,忽略了云环境的动态性。
发明内容
本发明的目的在于解决现有技术中的问题,提供一种基于深度强化学习的任务调度方法、***、装置及介质,能够对任务资源进行调度,提高资源利用率,降低运维成本。
为达到上述目的,本发明采用以下技术方案予以实现:
一种基于深度强化学习的任务调度方法,包括:
采集用户的行为数据,并形成数据集;
对数据集中的行为数据进行读取,生成任务,并将任务信息按照任务到达的先后顺序以队列的形式进行存储;
对任务进行识别、聚类和处理,将任务划分成不同的类型;
基于任务信息和基于深度强化学习的任务分配策略,选取对应类型的任务,调度任务信息,满足用户需要。
本发明的进一步改进在于:
任务信息包括:任务的输入参数、任务复杂度和数据量大小;行为数据包括:用户提交的任务数据和资源的使用情况。
对任务进行识别、聚类和处理,将任务划分成不同的类型,具体为:
基于K-means算法进行聚类分析,将任务划分为三个任务类型,分别为计算需求型、内存需求型和宽带需求型;再选取不同类型信息的任务进行提交。
选取不同类型信息的任务进行提交,具体为:不同的任务在提交时会附带自身的任务信息,其中类型信息作为一个字段存储在任务信息中,表明任务类型的归属。
基于深度强化学习的任务分配策略,具体为:
初始化Q表中的所有元素为0;
使用Q-learning算法对任务进行排序,将任务作为Q-learning中的状态和动作,从当前任务到下一个任务的排序过程作为智能体在当前状态选择一个可执行动作后转移到下一个状态的过程;
将每个任务的Upward Rank值作为该任务对应状态的立即奖励值,通过迭代更新Q表,直到Q表的值收敛;
根据收敛的Q表;使用最大Q值优先原则对任务进行排序,即每次都选择符合任务依赖关系中的Q值最大的任务作为下一个执行任务,直到所有任务都完成排序过程;
获取任务的执行顺序后,基于分配策略将每个任务映射到响应的虚拟机上进行执行;具体的分配策略为将任务在每个虚拟机上的最早完成时间和虚拟机的消耗成本通过线性加权的方式进行综合考虑,每次将任务分配到加权和最小的虚拟机上进行执行,使得在任务的完成时间最小并且同时做到虚拟机总成本下降的多目标优化的目的。
一种基于深度强化学习的任务调度***,包括:任务生成器、聚类器、任务调度模块、数据采集器和虚拟机;
数据采集器用于采集用户的行为数据,并形成数据集;
任务生成器用于对数据集中的行为数据进行读取,生成任务,并将任务信息按照任务到达的先后顺序以队列的形式进行存储至虚拟机中;
聚类器用于对存储的任务进行识别、聚类和处理,将任务划分成不同的类型;
任务调度模块基于任务信息和基于深度强化学习的任务分配策略,选取对应类型的任务,对虚拟机中的任务数据进行调度,满足用户要求。
任务调度模块包括监测器和任务调度器;监测器负责获取所有状态信息,包括虚拟机状态和任务状态,其中,状态监视器用于观察智能体周围的环境,即监测每个虚拟机中任务的执行情况,虚拟机资源的使用情况以及任务调度器中的任务队列;任务状态分为就绪、等待、运行和暂停;状态信息作为输入发送到任务调度器中;
任务调度器把任务分配给虚拟机,虚拟机接收所分配的任务,并根据所分配的任务进行仿真,观察得到的奖励和下一个状态,并将这一时刻的环境状态、动作、奖励进行存储。
基于深度强化学习的任务分配策略,具体为:
初始化Q表中的所有元素为0;
使用Q-learning算法对任务进行排序,将任务看作Q-learning中的状态和动作,从当前任务到下一个任务的排序过程看作智能体在当前状态选择一个可执行动作后转移到下一个状态的过程;
将每个任务的Upward Rank值作为该任务对应状态的立即奖励值,通过迭代更新Q表,直到Q表的值收敛;
根据收敛的Q表;使用最大Q值优先原则对任务进行排序,即每次都选择符合任务依赖关系中的Q值最大的任务作为下一个执行任务,直到所有任务均完成排序过程;
获取任务的执行顺序后,基于分配策略将每个任务映射到响应的虚拟机上进行执行;具体的分配策略为将任务在每个虚拟机上的最早完成时间和虚拟机的消耗成本通过线性加权的方式进行综合考虑,每次将任务分配到加权和最小的虚拟机上进行执行,使得在任务的完成时间最小并且同时做到虚拟机总成本下降的多目标优化的目的。
一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述方法的步骤。
与现有技术相比,本发明具有以下有益效果:
本发明通过对用户的行为数据进行采集、读取和处理,获取所有数据的状态信息,并基于任务分配策略,对数据进行调度,并判断调度结果是否满足用户需要,若不满足,重新进行调度,直到满足用户需要为止。本发明基于深度强化学***均耗时,最小完工时间以及***总能耗方面,能够提高调度效率,促进集群负载均衡。
附图说明
为了更清楚的说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1是本发明的基于深度强化学习的任务调度方法流程图;
图2是本发明的基于深度强化学习的任务调度***结构图;
图3是本发明的任务调度模块的结构图;
图4是本发明的任务调度框架图;
图5是本发明的深度强化学习模型结构图;
图6为基于DQN的任务调度程序流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
在本发明实施例的描述中,需要说明的是,若出现术语“上”、“下”、“水平”、“内”等指示的方位或位置关系为基于附图所示的方位或位置关系,或者是该发明产品使用时惯常摆放的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
此外,若出现术语“水平”,并不表示要求部件绝对水平,而是可以稍微倾斜。如“水平”仅仅是指其方向相对“竖直”而言更加水平,并不是表示该结构一定要完全水平,而是可以稍微倾斜。
在本发明实施例的描述中,还需要说明的是,除非另有明确的规定和限定,若出现术语“设置”、“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
下面结合附图对本发明做进一步详细描述:
参见图1,本发明公开了一种基于深度强化学习的任务调度方法,包括:
S101,采集用户的行为数据,并形成数据集。
行为数据包括:用户提交的任务数据和资源的使用情况。
S102,对数据集中的行为数据进行读取,生成任务,并将任务信息按照任务到达的先后顺序以队列的形式进行存储。
任务信息包括:任务的输入参数、任务复杂度和数据量大小。
S103,对存储的任务进行识别、聚类和处理,将任务划分成不同的类型。
具体为:基于K-means算法进行聚类分析,将任务划分为三个任务类型,分别为计算需求型、内存需求型和宽带需求型。
S104,基于任务信息和基于深度强化学习的任务分配策略,选取对应类型的任务,调度任务信息,满足用户需要。
选取对应类型任务,具体为:不同的任务在提交时会附带自身的任务信息,其中类型信息作为一个字段存储在任务信息中,表明任务类型的归属。
基于深度强化学习的任务分配策略,具体为:
初始化Q表中的所有元素为0;
使用Q-learning算法对任务进行排序,将任务作为Q-learning中的状态和动作,从当前任务到下一个任务的排序过程作为智能体在当前状态选择一个可执行动作后转移到下一个状态的过程;
将每个任务的Upward Rank值作为该任务对应状态的立即奖励值,通过迭代更新Q表,直到Q表的值收敛;
根据收敛的Q表;使用最大Q值优先原则对任务进行排序,即每次都选择符合任务依赖关系中的Q值最大的任务作为下一个执行任务,直到所有任务都完成排序过程;
获取任务的执行顺序后,基于分配策略将每个任务映射到响应的虚拟机上进行执行;具体的分配策略为将任务在每个虚拟机上的最早完成时间和虚拟机的消耗成本通过线性加权的方式进行综合考虑,每次将任务分配到加权和最小的虚拟机上进行执行,使得在任务的完成时间最小并且同时做到虚拟机总成本下降的多目标优化的目的。
参见图2,本发明公布了一种基于深度强化学习的任务调度***,包括:任务生成器、聚类器、任务调度模块、数据采集器和虚拟机;
所述数据采集器用于采集用户的行为数据,并形成数据集;
所述任务生成器用于对数据集中的行为数据进行读取,生成任务,并将任务信息按照任务到达的先后顺序以队列的形式进行存储至虚拟机中;
所述虚拟机用于存储任务信息;
所述聚类器用于对存储的任务进行识别、聚类和处理,将任务划分成不同的类型;
所述任务调度模块基于任务信息和基于深度强化学习的任务分配策略,选取对应类型的任务,对虚拟机中的任务数据进行调度,满足用户需要。
参见图3,任务调度模块包括监测器和任务调度器;所述监测器负责获取所有状态信息,包括虚拟机状态和任务状态,其中,状态监视器用于观察智能体周围的环境,即监测每个虚拟机中任务的执行情况,虚拟机资源的使用情况以及任务调度器中的任务队列;任务状态分为就绪、等待、运行和暂停;状态信息作为输入发送到任务调度器中;
任务调度器把任务分配给虚拟机,虚拟机接收所分配的任务,并根据所分配的任务进行仿真,观察得到的奖励和下一个状态,并将这一时刻的环境状态、动作、奖励进行存储。
基于深度强化学习的任务分配策略,具体为:
初始化Q表中的所有元素为0;
使用Q-learning算法对任务进行排序,将任务看作Q-learning中的状态和动作,从当前任务到下一个任务的排序过程看作智能体在当前状态选择一个可执行动作后转移到下一个状态的过程;
将每个任务的Upward Rank值作为该任务对应状态的立即奖励值,通过迭代更新Q表,直到Q表的值收敛;
根据收敛的Q表;使用最大Q值优先原则对任务进行排序,即每次都选择符合任务依赖关系中的Q值最大的任务作为下一个执行任务,直到所有任务均完成排序过程;
获取任务的执行顺序后,基于分配策略将每个任务映射到响应的虚拟机上进行执行;具体的分配策略为将任务在每个虚拟机上的最早完成时间和虚拟机的消耗成本通过线性加权的方式进行综合考虑,每次将任务分配到加权和最小的虚拟机上进行执行,使得在任务的完成时间最小并且同时做到虚拟机总成本下降的多目标优化的目的。
本发明的设计流程如下:
1.建立任务调度***模型
在常见的在线云任务调度场景中,用户提交任务到任务调度器,任务调度器根据任务调度算法把任务分配到合适的虚拟机。根据深度强化学习的特点,本发明在任务调度器模块中额外增加了任务缓存队列、状态监视器和回放记忆单元。如附图4所述。
假设在用户终端上存在一个任务队列,用户不停的将任务队列中的任务提交到任务调度器。任务调度器中设置一个任务队列用来存储用户提交的任务,由于队列的开销是比较小的,所以可以认为这个任务队列的长度是无限的,可以用来存储不同用户提交的不同类型的所有任务。任务调度器中的任务队列、调度算法、状态监视器和回放记忆单元4个模块之间数据是相互共享的。状态监视器在本文的DRL框架中扮演环境监视器的角色,用于观察智能体周围的环境,即监测数据中心中每个虚拟机中任务的执行情况,虚拟机资源的使用情况,以及任务调度器中的任务队列。回放记忆单元是针对接下来提出改进DRL算法特别设计的,用于存放任务执行的历史信息,使DRL可以进行离线训练,同时打破了数据之间的相关性,回放记忆单元中的历史任务来自数据中心每台虚拟机所产生的数据。任务调度算法可以是接下来所提出的DRL算法,也可以是传统的调度算法,如最小执行时间调度算法(MET)、最小完成时间调度算法(MCT)、先来先服务调度算法(FIFO)、短作业优先调度算法(SJF)等。如果使用DRL算法,那么其中的智能体在每一步将会从状态监视器中读取环境数据用于在线调度,从回放记忆单元中采样历史数据用于离线训练,最终把任务调度队列中的任务调度给指定的虚拟机。
2.设计深度强化学习模型结构
本发明首先完成了DRL中状态空间、动作空间和奖励函数三个重要的部分的设计,然后给出了基于DQN算法的云任务调度算法整体设计,之后通过Bolttzmann Q Policy增强了动作选择时的探索能力,最后给出了基于DQN算法的云任务调度在程序上的实现。其中,状态空间、动作空间和奖励函数的设计如下:
状态空间(S):一个状态可以定义为每个虚拟机执行任务的情况,可以用一个向量表示。例如:S=(1,0,...,1)表示第一个虚拟机目前被一个任务占用,第二个虚拟机空闲,最后一个虚拟机被一个任务占用。
动作空间(A):对于第n个任务请求,将其定义为动作空间(0/1),意味着第n个任务请求是否被提供给第m个虚拟机执行。例如,a(0,1,0,..,0)表示t时刻第n个任务请求被分配给第2个虚拟机。
奖励函数(r):被用来反映正确的运行状态和任务的调度效率。目前,能耗是任务调度效率一个重要的衡量标准。在任务截止时间的约束下,通过减少任务的等待时间来设计奖励函数,具体由公式表示如下:
Figure BDA0003800974690000101
其中,i为第i个物理机,i_local为第i个物理机的虚拟机数目,j为第i个物理机上第j个虚拟机,ui,j是第i个物理机上第j个虚拟机的利用率,由此可得第i个物理机上所有虚拟机的利用率为
Figure BDA0003800974690000102
averwj表示任务n在虚拟机j上的平均等待时间,如果当前任务被调度给一个虚拟机,且该虚拟机的平均利用率比原来的平均利用率高,等待时间小于原来的等待时间,则得到正面奖励,值为1;否则,得到负面奖励,值为0。
深度强化学习方法通过智能体和环境的不断交互来优化智能体的策略,深度强化学习模型结构如附图5所示。智能体获取当前时刻的***状态,用向量对***状态进行表示,将获取到的状态向量输入到智能体的神经网络中,网络输出该状态对应的动作决策到环境中,此时环境状态会发生变化,同时会得到一个关于状态和动作的奖励反馈给智能体,智能体根据奖励可以知道所做决策正确与否,从而不断优化神经网络。智能体使用的网络结构为经典的Actor-Critic框架。Actor-Critic框架包含Actor网络和Critic网络,Actor网络输出智能体的动作,Critic网络输出状态的值函数,用于评价动作的好坏。因为Actor网络和Critic网络都是从状态中提取集群信息,因此两个网络前两层结构相同。
3.任务调度算法设计
本发明基于DQN的任务调度进行设计,其算法流程图如附图6所示。程序首先初始化仿真环境、网络权重、超参数和Boltzmann探索策略,然后调度算法检测任务队列中是否有用户提交的任务,并观察环境状态st,之后执行探索策略,在通过Q网络生成动作时会在其后加上Boltzmann动作探索策略;之后调度器根据动作把任务分配给虚拟机,并开始进行仿真,观察得到的奖励和下一个状态,把(st,at,rt)存入记忆单元R,由于神经网络的训练需要一定的数据,先让智能体对环境探索一段时间再开始训练,于是要判断当前步骤是否大于设置的探索步骤,即:step>step_warmup;之后从经验池中随机选取数据对当前值网络进行训练,每过C步更新目标值网络;最后判断步数是否达到最大步数,如果是则终止程序,否则继续。其中,at为动作空间状态,rt为奖励函数状态。
4.进行仿真测试
为了与业界最佳传统调度算法实践进行对比,设计随机负载和云资源配置,收集不同场景配置下的各方法的性能指标并进行对比。主要考虑离线和在线两类算法的性能指标对比,对比指标包括任务平均用时、平均完工时间、***总能耗和***总收益等。发现算法的收敛速度较快,在主要指令响应时间比、负载均衡等优化指标上比传统算法更好。
深度强化学习在云计算中的研究已经有了大量成果;但是,在云任务调度中的研究成果还比较少,相对而言深度Q学习算法使用的较多。经典的任务调度算法没有考虑集群的高异构性的特点,另一方面,集群高异构性将增加调度算法提取状态特征的难度,相比于启发式智能任务调度算法,深度学习在特征提取上具有显著的优势,深度强化学习更进一步的能够对调度策略进行自动调整。在模拟数据集和阿里云集群跟踪数据集上进行相关了实验,分析发现在集群异构性高、任务波动性大的场景下,本发明提出的算法拥有良好的收敛性,并且大幅提高了任务的指令响应时间比,促进了集群负载均衡。
本发明一实施例提供的终端设备。该实施例的终端设备包括:处理器、存储器以及存储在所述存储器中并可在所述处理器上运行的计算机程序。所述处理器执行所述计算机程序时实现上述各个方法实施例中的步骤。或者,所述处理器执行所述计算机程序时实现上述各装置实施例中各模块/单元的功能。
所述计算机程序可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器中,并由所述处理器执行,以完成本发明。
所述终端设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述终端设备可包括,但不仅限于,处理器、存储器。
所述处理器可以是中央处理单元(CentralProcessingUnit,CPU),还可以是其他通用处理器、数字信号处理器(DigitalSignalProcessor,DSP)、专用集成电路(ApplicationSpecificIntegratedCircuit,ASIC)、现成可编程门阵列(Field-ProgrammableGateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。
所述存储器可用于存储所述计算机程序和/或模块,所述处理器通过运行或执行存储在所述存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现所述终端设备的各种功能。
所述终端设备集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,RandomAccessMemory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于深度强化学习的任务调度方法,其特征在于,包括:
采集用户的行为数据,并形成数据集;
对数据集中的行为数据进行读取,生成任务,并将任务信息按照任务到达的先后顺序以队列的形式进行存储;
对任务进行识别、聚类和处理,将任务划分成不同的类型;
基于任务信息和基于深度强化学习的任务分配策略,选取对应类型的任务,调度任务信息,满足用户需要。
2.根据权利要求1所述的基于深度强化学习的任务调度方法,其特征在于,所述任务信息包括:任务的输入参数、任务复杂度和数据量大小;所述行为数据包括:用户提交的任务数据和资源的使用情况。
3.根据权利要求1所述的基于深度强化学习的任务调度方法,其特征在于,所述对任务进行识别、聚类和处理,将任务划分成不同的类型,具体为:
基于K-means算法进行聚类分析,将任务划分为三个任务类型,分别为计算需求型、内存需求型和宽带需求型;再选取不同类型信息的任务进行提交。
4.根据权利要求3所述的基于深度强化学习的任务调度方法,其特征在于,所述选取不同类型信息的任务进行提交,具体为:不同的任务在提交时会附带自身的任务信息,其中类型信息作为一个字段存储在任务信息中,表明任务类型的归属。
5.根据权利要求1所述的基于深度强化学习的任务调度方法,其特征在于,所述基于深度强化学习的任务分配策略,具体为:
初始化Q表中的所有元素为0;
使用Q-learning算法对任务进行排序,将任务作为Q-learning中的状态和动作,从当前任务到下一个任务的排序过程作为智能体在当前状态选择一个可执行动作后转移到下一个状态的过程;
将每个任务的Upward Rank值作为该任务对应状态的立即奖励值,通过迭代更新Q表,直到Q表的值收敛;
根据收敛的Q表;使用最大Q值优先原则对任务进行排序,即每次都选择符合任务依赖关系中的Q值最大的任务作为下一个执行任务,直到所有任务都完成排序过程;
获取任务的执行顺序后,基于分配策略将每个任务映射到响应的虚拟机上进行执行;具体的分配策略为将任务在每个虚拟机上的最早完成时间和虚拟机的消耗成本通过线性加权的方式进行综合考虑,每次将任务分配到加权和最小的虚拟机上进行执行,使得在任务的完成时间最小并且同时做到虚拟机总成本下降的多目标优化的目的。
6.一种基于深度强化学习的任务调度***,其特征在于,包括:任务生成器、聚类器、任务调度模块、数据采集器和虚拟机;
所述数据采集器用于采集用户的行为数据,并形成数据集;
所述任务生成器用于对数据集中的行为数据进行读取,生成任务,并将任务信息按照任务到达的先后顺序以队列的形式进行存储至虚拟机中;
所述聚类器用于对存储的任务进行识别、聚类和处理,将任务划分成不同的类型;
所述任务调度模块基于任务信息和基于深度强化学习的任务分配策略,选取对应类型的任务,对虚拟机中的任务数据进行调度,满足用户要求。
7.根据权利要求6所述的基于深度强化学习的任务调度***,其特征在于,所述任务调度模块包括监测器和任务调度器;所述监测器负责获取所有状态信息,包括虚拟机状态和任务状态,其中,状态监视器用于观察智能体周围的环境,即监测每个虚拟机中任务的执行情况,虚拟机资源的使用情况以及任务调度器中的任务队列;任务状态分为就绪、等待、运行和暂停;状态信息作为输入发送到任务调度器中;
任务调度器把任务分配给虚拟机,虚拟机接收所分配的任务,并根据所分配的任务进行仿真,观察得到的奖励和下一个状态,并将这一时刻的环境状态、动作、奖励进行存储。
8.根据权利要求7所述的基于深度强化学习的任务调度***,其特征在于,所述基于深度强化学习的任务分配策略,具体为:
初始化Q表中的所有元素为0;
使用Q-learning算法对任务进行排序,将任务看作Q-learning中的状态和动作,从当前任务到下一个任务的排序过程看作智能体在当前状态选择一个可执行动作后转移到下一个状态的过程;
将每个任务的Upward Rank值作为该任务对应状态的立即奖励值,通过迭代更新Q表,直到Q表的值收敛;
根据收敛的Q表;使用最大Q值优先原则对任务进行排序,即每次都选择符合任务依赖关系中的Q值最大的任务作为下一个执行任务,直到所有任务均完成排序过程;
获取任务的执行顺序后,基于分配策略将每个任务映射到响应的虚拟机上进行执行;具体的分配策略为将任务在每个虚拟机上的最早完成时间和虚拟机的消耗成本通过线性加权的方式进行综合考虑,每次将任务分配到加权和最小的虚拟机上进行执行,使得在任务的完成时间最小并且同时做到虚拟机总成本下降的多目标优化的目的。
9.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-6任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-6任一项所述方法的步骤。
CN202210983066.1A 2022-08-16 2022-08-16 一种基于深度强化学习的任务调度方法、***、装置及介质 Withdrawn CN115220898A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210983066.1A CN115220898A (zh) 2022-08-16 2022-08-16 一种基于深度强化学习的任务调度方法、***、装置及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210983066.1A CN115220898A (zh) 2022-08-16 2022-08-16 一种基于深度强化学习的任务调度方法、***、装置及介质

Publications (1)

Publication Number Publication Date
CN115220898A true CN115220898A (zh) 2022-10-21

Family

ID=83615175

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210983066.1A Withdrawn CN115220898A (zh) 2022-08-16 2022-08-16 一种基于深度强化学习的任务调度方法、***、装置及介质

Country Status (1)

Country Link
CN (1) CN115220898A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116595384A (zh) * 2023-07-14 2023-08-15 支付宝(杭州)信息技术有限公司 模型训练方法及装置
CN116257345B (zh) * 2023-05-15 2023-09-01 中国华能集团清洁能源技术研究院有限公司 深度学习任务调度方法及装置
CN116820711A (zh) * 2023-06-07 2023-09-29 上海幽孚网络科技有限公司 任务驱动的自治代理算法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116257345B (zh) * 2023-05-15 2023-09-01 中国华能集团清洁能源技术研究院有限公司 深度学习任务调度方法及装置
CN116820711A (zh) * 2023-06-07 2023-09-29 上海幽孚网络科技有限公司 任务驱动的自治代理算法
CN116820711B (zh) * 2023-06-07 2024-05-28 上海幽孚网络科技有限公司 任务驱动的自治代理方法
CN116595384A (zh) * 2023-07-14 2023-08-15 支付宝(杭州)信息技术有限公司 模型训练方法及装置
CN116595384B (zh) * 2023-07-14 2023-11-24 支付宝(杭州)信息技术有限公司 模型训练方法及装置

Similar Documents

Publication Publication Date Title
CN115220898A (zh) 一种基于深度强化学习的任务调度方法、***、装置及介质
CN108345501B (zh) 一种分布式资源调度方法和***
Ge et al. GA-based task scheduler for the cloud computing systems
Chunlin et al. Hybrid cloud adaptive scheduling strategy for heterogeneous workloads
CN113515351B (zh) 一种基于能耗与QoS协同优化的资源调度实现方法
CN112685138B (zh) 云环境下基于多种群混合智能优化的多工作流调度方法
CN107357652A (zh) 一种基于分段排序及标准差调整因子的云计算任务调度方法
Tang et al. Nanily: A qos-aware scheduling for dnn inference workload in clouds
CN105744006A (zh) 一种面向多类型服务的粒子群优化用户请求调度方法
CN109857535A (zh) 面向Spark JDBC的任务优先级控制的实现方法及装置
CN105740059B (zh) 一种面向可分割任务的粒子群调度方法
CN108170523B (zh) 一种移动云计算的随机任务序列调度方法
CN113434248A (zh) 一种面向容器云的任务协同调度***及其方法
CN115237568A (zh) 一种面向边缘异构设备的混合权重任务调度方法及***
CN116467076A (zh) 一种基于集群可用资源的多集群调度方法及***
CN104346220B (zh) 一种任务调度方法与***
CN113190342B (zh) 用于云-边协同网络的多应用细粒度卸载的方法与***架构
CN117349026B (zh) 一种用于aigc模型训练的分布式算力调度***
Singh et al. A comparative study of various scheduling algorithms in cloud computing
CN111930485B (zh) 一种基于性能表现的作业调度方法
CN116010051A (zh) 一种联邦学习多任务调度方法及装置
CN112698911B (zh) 一种基于深度强化学习的云作业调度方法
Guan et al. HierRL: Hierarchical reinforcement learning for task scheduling in distributed systems
Javadi-Moghaddam et al. Resource allocation in cloud computing using advanced imperialist competitive algorithm.
CN114035954A (zh) 一种基于ddqn算法的调度***和任务调度***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20221021