CN116795545A - 基于网算容器的信息物理生产***及其管理方法 - Google Patents

基于网算容器的信息物理生产***及其管理方法 Download PDF

Info

Publication number
CN116795545A
CN116795545A CN202310738413.9A CN202310738413A CN116795545A CN 116795545 A CN116795545 A CN 116795545A CN 202310738413 A CN202310738413 A CN 202310738413A CN 116795545 A CN116795545 A CN 116795545A
Authority
CN
China
Prior art keywords
network
resource
control instruction
computing
container
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310738413.9A
Other languages
English (en)
Other versions
CN116795545B (zh
Inventor
夏长清
许驰
金曦
李栋
曾鹏
夏天豪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenyang Institute of Automation of CAS
Original Assignee
Shenyang Institute of Automation of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenyang Institute of Automation of CAS filed Critical Shenyang Institute of Automation of CAS
Priority to CN202310738413.9A priority Critical patent/CN116795545B/zh
Publication of CN116795545A publication Critical patent/CN116795545A/zh
Application granted granted Critical
Publication of CN116795545B publication Critical patent/CN116795545B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • G06F9/4881Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5072Grid computing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了基于网算容器的信息物理生成***及其管理方法。该方法应用于具有实时需求的网络化***,结合容器虚拟化与软件定义网络,发明了一种利用网络、计算资源分配对控制算法实时响应进行保障的新型容器技术,即,网算容器。网算容器根据控制指令的实时需求及参数量、计算量、负载等自身特性,为不同控制指令分配执行所需的计算、传输资源,并以容器形式对资源进行隔离,回避了资源竞争所造成的不确定性,保障了网算容器内控制指令的实时响应。本发明在不改变控制算法、控制指令模型的情况下,通过细粒度、高利用率使用网算资源,提升网络化控制***整体性能,支持高精度生产、分布式协同等多种场景。

Description

基于网算容器的信息物理生产***及其管理方法
技术领域
本发明涉及工业控制***领域,具体地说是一种基于网算容器的信息物理生产***及其管理方法。
背景技术
云平台下的网络化控制***中,控制指令在云端进行编排调度以及参数配置,通过网络或人工方式被部署在控制器中,控制控制指令与控制器紧绑定,控制指令部署后往往不再改变或通过人工配置重新部署新控制指令,控制控制指令采用离线方式独立运行于控制器中,并采用冗余资源供给方式确保控制指令的节拍响应。一方面,相对固化的控制控制指令导致现有网络化控制***难以适用于工业互联网下的柔性化生产需求;另一方面,通过网络或人工方式进行动态离线部署以满足柔性生产需求的方式极大降低了生产效率,且不同控制指令对控制器计算能力、响应速度等需求各不相同;最后,工业互联网下控制指令往往需要协同工作,离线部署方式中控制指令响应时间无法保证,无法实现多控制指令协同作业。
基于边缘计算的虚拟化技术通过构建统一算力资源池,对控制指令进行算力配置后,卸载至对应物理节点是目前解决这一问题的最新方法。该方法通过虚拟化技术对控制指令与控制器进行解耦,控制指令计算过程与执行控制器可以在不同节点中进行。然而,基于边缘计算虚拟化技术的控制指令卸载方式并未考虑网络传输及数据交互产生的时间开销,仅实现了控制指令的自动化离线部署,在响应确定性需求较高场景中无法适用。
现有边缘计算及虚拟化技术尚无综合考虑网络、计算资源分配方式的卸载方式,且大规模更换高端控制器及提高网络速率成本巨大,因此,亟需提出基于网算容器的信息物理生产***及其管理方法,基于现有生产***,在不改变生产环境及控制指令情况下,增加资源管理器及相应模块,通过细粒度、高利用率综合考虑网算资源,实现控制***整体性能提升,支持高精度生产、分布式协同等多种场景,助力控制***智能化、敏捷化升级。
发明内容
本发明面向工业互联网下,工业控制***柔性化生产需求,针对现有技术离线部署无法满足响应确定性的动态、协同作业需求问题,设计了基于网算容器的信息物理生产***及其管理方法,可以根据控制指令确定性响应需求按需分配网络、计算资源,并封装为网算容器实现控制指令间的协同与独立运行,在不改变生产环境及控制指令情况下,通过细粒度、高利用率使用网算资源,实现控制***整体性能提升。
本发明为实现上述目的所采用的技术方案是:基于网算容器的信息物理生产***,包括:
资源管理器,用于根据控制指令确定性响应需求,以最大化满足控制指令需求的控制指令数量为目标,为各控制指令按需分配资源,并卸载到控制指令对应的物理节点;
物理节点,用于收到卸载的控制指令后,建立相应的网算容器,通过子进程的形式独立运行,网算容器通过将核-时隙与进程-时隙进行映射,实现异构计算资源的统一管控。
所述控制指令用于表征网络化控制***中任务的执行负载,以为分配网络、计算资源提供执行依据;包括:执行时间、截止期、计算量、神经网络参数量。
所述资源管理器,包括:
资源评估模块,用于读取控制指令计算量w与参数量p,并获得当最大传输时间开销为sltrans时,可得最小网络资源分配为αp/sltrans;根据控制指令确定性约束下所需计算与传输开销及对应资源函数,得到控制指令的执行时间;
预分配模块,用于构建基于资源分配、执行开销以及确定性约束的控制指令模型,根据控制指令的执行时间、采用EDF调度方法结合控制指令模型所建立的任务特征进行资源预分配,生成预分配调度表;
控制指令卸载模块,用于根据网算资源池当前负载对预分配调度表进行优化,并根据优化后的调度表对控制指令进行卸载,使所卸载的物理节点中生成相应的网算容器;
SDN控制模块,根据优化后的调度表对网络控制器中接口流量带宽进行配置,调整计量表及队列设置,实现对控制指令传输速率的定量配置。
所述资源评估模块,执行以下步骤:
控制指令计算量w与神经网络参数量p,即,计算时间开销可表示为Tcompt=w/s,其中,s为控制指令计算资源分配,当最大计算时间开销为slcompt时,最小计算资源分配为w/slcompt
传输时间开销表示为Ttrans=αp/b,其中b为控制指令网络资源分配,α为α=Co(kwkhCi+1),表示每个神经网络的参数量,其中Co表示输出通道,表示该层有Co个卷积核,Ci表示输入通道数,kw表示卷积核宽,kh表示卷积核高;kwkhCi表示一个卷积核的权重数量,1表示偏置量;
当最大传输时间开销为sltrans时,得最小网络资源分配为αp/sltrans
控制指令确定性约束下所需计算与传输开销及对应资源函数为:
s.t.Tcompt≤slcompt
Ttrans≤sltrans
∑si≤S
∑bi≤B
其中,ti为控制指令i执行时间,di为控制指令i最大响应时间即截止期,wi为控制指令i计算量,pi为控制指令i参数量,si为控制指令i所分配的计算资源,bi为控制指令i所分配网络资源,S为总计算资源,B为总传输资源。
所述控制指令卸载模块,执行以下步骤:
当网络化实时控制***单位时间内总负载(DBF(l)=Σ(si+εbi)),对于任意控制指令i大于资源总供给(SBF(l))时,即,DBF(l)>SBF(l),抛弃无法满足确定性约束的控制指令,以避免无效分配导致资源利用率降低,即满足新的负载DBF*(l)≤SBF(l);
当DBF(l)<SBF(l)时,增加高优先级控制指令资源配置,为网络化实时控制***后续控制指令到达降低负载;
当DBF(l)<<SBF(l)即符合设定范围时,延长低优先级控制指令确定性截止期,以提高***容错性;
更新通过SDN控制模块进行控制指令传输速率的定量配置后生成控制指令卸载调度表。
通过网算资源利用率进行细粒度控制指令资源分配,具体如下:
其中,U(l)为时间窗口l内的资源利用率;
当资源利用率超过阈值,则优化DBF<SBF或DBF<<SBF情况下进行控制指令资源分配,实现最大化U(l)下的细粒度资源配置。
基于网算容器的信息物理生产***管理方法,包括以下步骤:
资源管理器根据控制指令确定性响应需求,以最大化满足控制指令需求的控制指令数量为目标,为各控制指令按需分配资源,并卸载到控制指令对应的物理节点;
物理节点收到卸载的控制指令后,建立相应的网算容器,通过子进程的形式独立运行,网算容器通过将核-时隙与进程-时隙进行映射,实现异构计算资源的统一管控。
所述网算容器根据控制指令分配资源情况,对多个网算容器构成的网算资源池中资源进行隔离并生产相应资源;所述网算容器运行时资源相互独立。
所述网算容器的建立,包括以下步骤:
获取当前资源供需情况:通过读取控制指令的任务属性分析任务确定性需求对应的网络、计算资源博弈关系,并获取当前网络、计算资源利用情况;
分析网络、计算资源供给边界:分析各任务在网络、计算资源共享竞争环境下,满足各自确定性需求所需的资源范围;
生产-生成网算资源配置表:在满足任务确定性需求的资源范围内进行资源配置,并结合任务优先级进行共享资源供给调节,输出结果为任务集的网络、计算资源配置表;
生成网算容器:根据对任务的编排调度信息,以及任务集的网络、计算资源配置表,在边缘节点或云端为任务生产相应的容器,并配置对应的网络、计算资源,实现为任务配置各自的网算容器。
所述网算容器的构建,包括以下步骤:
获取当前资源供需情况:通过读取任务属性分析任务确定性需求对应的网络、计算资源博弈关系,并获取当前网络、计算资源利用情况;
分析网络、计算资源供给边界:分析各任务在网络、计算资源共享竞争环境下,满足各自确定性需求所需的资源范围;
生产网算资源配置表:在满足任务确定性需求的资源范围内进行资源配置,并结合任务优先级进行共享资源供给调节,输出结果为任务集的网络、计算资源配置表;
生成网算容器:根据对任务的编排调度信息,以及任务集的网络、计算资源配置表,在边缘节点或云端为任务生产相应的容器,并配置对应的网络、计算资源,实现为任务配置各自的网算容器。
所述获取当前资源供需情况,包括以下步骤:
步骤1.1:获取信息物理生产***的架构信息;
步骤1.2:获取任务信息;
步骤1.3:计算任意节点的网络资源利用率;
步骤1.4:计算各节点的计算资源利用率;
步骤1.5:确定性可保障的网算博弈关系。
所述步骤1.5包含以下步骤:
步骤1.5.1:确定各待调度任务i网络和计算资源的约束:
网络资源约束表达式为,
∑itrans≤B
计算资源约束表达式为,
∑icomput≤S
其中,itrans为任务i获得的网络资源,icomput为任务i获得的计算资源,B为总传输资源也即***网络资源总量,S为总计算资源也即***计算资源总量;
步骤1.5.2:对任务i的传输与计算性能进行代数表征:
传输性能表征表达式为,
计算性能表征表达式为,
其中,表示任务被Kubernetes集群成功调度后需要的数据传输时间,表示任务被kubernetes集群成功调度后需要的任务计算时间,workload即任务负载Di,calculation即任务计算量ci,n表示任务i获得的时隙或线程数量,slot表示传输时隙,thread表示线程;
步骤1.5.3:对制造业务约束进行代数表征:
其中,Δ为任意大于0的实数;di表示任务i的相对截止期;
步骤1.5.4:确定传输性能与计算性能的非线性耦合关系。
所述步骤1.5.4具体为:
对于任意待调度任务i,其传输性能与计算性能/>通过径向基神经网络来对二者的关系曲线进行拟合;以传输性能为输入,以计算性能为输出,利用已有的任务数据对该网络模型进行训练,得到收敛后的神经网络模型,模型用函数表示。
所述分析网络、计算资源供给边界,包括以下步骤:
步骤2.1:进行网络资源统一管控;
步骤2.2:进行计算资源统一管控;
步骤2.3:进行网络边界分析;
步骤2.4:进行计算边界分析。
所述步骤2.3对网络边界进行分析,具体为:
任务i的网络资源边界为
B为***网络资源总量,表示任务被Kubernetes集群成功调度后需要的数据传输时间;workload即任务负载,calculation即任务计算量,
表示神经网络模型的反函数;itrans为任务i获得的网络资源,icomput为任务i获得的计算资源;di表示任务i的相对截止期;
所述步骤2.4对计算边界进行分析,具体为:
任务i的计算边界为
S为***计算资源总量,表示任务被kubernetes集群成功调度后需要的任务计算时间,calculation即任务计算量。
所述生产网算资源配置表,包括以下步骤:
步骤3.1:以各节点资源利用率为平均分配评判指标;
步骤3.2:对任务进行资源调度,各任务初始资源需求按资源下界分配,调度过程中考虑利用率均衡;
步骤3.3:当所有任务资源都满足分配时,结束并返回任务网算资源配置表;
步骤3.4:否则,分析资源瓶颈,在***中保存该调度失败任务信息,跳过该失败任务并进行下一个任务的调度;
步骤3.5:根据资源边界和非线性耦合关系,对有余量的资源进行调节,提高多余类型资源供给,重新进行调度,每次调节资源比例为a%;
步骤3.6:若所有任务都可调度,返回可调度性为100%,及当前分配下的节点负载平均利用率以及任务网算资源配置表;
步骤3.7:若进行n次调节后依然无法100%调度,停止调度,返回期间得到的最大可调度性,和对应的负载平均利用率以及任务网算资源配置表。
所述步骤3.1具体为:
将各节点的网络资源利用率、计算资源利用率分别加权平均得到当前Kubernetes集群的平均网络资源与平均计算资源利用率/>
各集群网络资源利用率离散度计算公式为:
集群计算资源利用率离散度计算公式为:
令网络资源利用率离散度的权重为α,α∈(0,1);j表示集群物理节点;加权后的总资源利用率离散度公式为:
所述步骤3.2具体为:
将任务集中所有任务按照优先级进行排序,按优先级顺序由高到低依次进行调度;
对待调度任务i,根据资源下界为其分配相应的网络与计算资源,同时求出任务i在每一个可调度节点上的总资源利用率的离散度,并求出这些离散度的最小值,即
其中,为当前Kubernetes集群的平均网络资源,/>为平均计算资源利用率;α为网络资源利用率的离散度;
将待调度任务i调度到取得最小值的节点j上;将此时的任务编号、节点编号、网络资源分配以及计算资源分配记录到资源配置表中。
所述生成网算容器,包括以下步骤:
步骤4.1:网络资源分配:按照步骤3得到的网算资源配置表中的资源需求,将任务网络资源分配值,即容器配置文件中的带宽值的关键字设置为对应的要求值;
步骤4.2:计算资源分配:容器的计算资源请求值和限制值设置为相同大小,同时令其网算资源配置表中的要求值;
步骤4.3:构建网算容器:将容器调度到网算资源配置表中要求的云服务器节点,以生成网算容器。
本发明具有以下有益效果及优点:
1.网算容器根据控制指令的实时需求及参数量、计算量、负载等自身特性,为不同控制指令分配执行所需的计算、传输资源,并以容器形式对资源进行隔离,回避了资源竞争所造成的不确定性,保障了网算容器内控制指令的实时响应。
2.本发明提出的面向网络化实时控制***的网算容器设计及管理方法,在不改变控制算法、控制指令模型的情况下,通过细粒度、高利用率使用网算资源,提升网络化控制***整体性能,支持高精度生产、分布式协同等多种场景。
附图说明
图1是本发明的***架构图;
图2是本发明的资源管理器资源管理方法流程图;
图3为网算容器生成方法流程图;
图4是本发明的网算容器示意图;
图5为本发明中网算资源配置表生成流程图;
图6为本发明最终构建的网算容器的资源配置文件示例图。
具体实施方式
下面结合附图及实施例对本发明做进一步的详细说明。
本发明面向工业互联网下,工业控制***柔性化生产需求,针对现有技术离线部署无法满足响应确定性的协同作业需求问题,设计了一种面向网络化实时控制***的网算容器设计及管理方法,可以根据控制指令确定性响应需求按需分配网络、计算资源,并封装为网算容器实现控制指令间的协同与独立运行,在不改变生产环境及控制指令情况下,通过细粒度、高利用率使用网算资源,实现控制***整体性能提升。
如图1所示,一种面向网络化实时控制***,包括:
控制指令,是网络化控制***中的执行负载,包括控制算法、智能模型、调度机制等带有实时性需求的控制指令;具体用于表征网络化控制***中任务集中任务的执行负载,为分配网络、计算资源提供执行依据;包括:执行时间、截止期、计算量、神经网络参数量。
资源管理器,用于根据控制指令确定性响应需求,以最大化满足控制指令需求的控制指令数量为目标,为各控制指令按需分配资源;
网算资源池,对***中接入的边缘物理节点计算能力及连通链路传输速率、带宽等进行统一量化,为资源管理器提供量化后的统一分配对象;
网算容器,是控制指令实际分配到的网络、计算资源,根据各控制指令分配资源情况,对资源池中资源进行隔离并生产具有相应资源的网算容器,各网算容器运行时资源相互独立;
边缘物理节点,是网算容器运行的物理实体,控制指令卸载到物理节点后,建立相应的网算容器,多个网算容器以子进程的形式独立运行。
所述的控制指令,控制指令的传输、解算\计算速度受网络、计算资源分配影响,当控制指令的资源供给不小于资源需求时,其实时性可以得到保障;
所述的控制指令模型,依据任务模型确定任务特征,将特征需求建立为资源供需的定义标准;
所述的网算容器,其中,网算容器根据资源管理器所分配的一体化资源,对网络、计算资源进行隔离,并分配相应控制指令子进程。
进一步的,所述的网算容器,其中,计算资源利用容器虚拟化技术,如图4所示的表示虚拟化的计算资源类型,通过限制处理器内核周期内复用时隙数量及处理器工作频率,实现对计算资源的虚拟分配。
进一步的,所述的网算容器,其中,异构边缘物理节点通过将核-时隙与进程-时隙进行映射,实现异构计算资源的统一管控。其中CPU处理器计算资源粒度为核,GPU处理器计算资源粒度为1%处理能力。
进一步的,所述的网算容器,其中,网络带宽及速率分配利用OpenFlow对QoS的功能支持,通过调整资源控制器与各边缘物理节点间传输链路的发送队列、时隙长度及计量表等,实现对网络资源的虚拟分配。
进一步的,所述的网算容器,其中,切片网络与工业以太网络环境中,通过将频谱-时隙的切片资源与路由/节点-时隙的工业以太网资源进行映射,实现异构网络的统一管控,其中,网络资源粒度为ns级时隙/切片。
进一步的,所述的网算容器管理方法,所述的边缘物理节点,包括:
边缘物理节点可具有异构架构、异构算力及网络互联方式;
基于Linux内核的操作***,以提供如Kubernetes、KubeEdge等在内的容器编排器;
所述的网算容器管理方法,所述的资源管理器,包括:
资源评估模块,读取控制指令计算量w与参数量p,即,计算时间开销可表示为Tcompt=w/s,其中s为控制指令计算资源分配,当最大计算时间开销为slcompt时,可得最小计算资源分配为w/slcompt;传输时间开销可表示为Ttrans=αp/b,其中b为控制指令网络资源分配,α为α=Co(kwkhCi+1),表示每个神经网络的参数量的其中Co表示输出通道,表示该层有Co个卷积核,Ci表示输入通道数,kw表示卷积核宽,kh表示卷积核高。kwkhCi表示一个卷积核的权重数量,1表示偏置量。当最大传输时间开销为sltrans时,可得最小网络资源分配为αp/sltrans
进一步的,可得控制指令确定性约束下所需计算与传输开销及对应资源函数为:
s.t.Tcompt≤slcompt
Ttrans≤sltrans
∑si≤S
∑bi≤B
其中,ti为控制指令i执行时间,di为控制指令i最大响应时间,wi为控制指令i计算量,pi为控制指令i参数量,si为控制指令i所分配的计算资源,bi为控制指令i所分配网络资源,S为总计算资源,B为总传输资源。
预分配模块,构建基于资源分配、执行开销以及确定性约束的控制指令模型,采用EDF调度方法结合控制指令模型所建立的任务特征进行资源预分配,生成预分配调度表;
控制指令卸载模块,根据网算资源池当前负载对预分配调度表进行优化,并根据优化后的调度表对控制指令进行卸载,并在所卸载的边缘物理节点中生成响应的网算容器;
SDN控制模块,根据调度表对网络控制器中接口流量带宽进行配置,调整计量表及队列设置,实现对控制指令传输速率的定量配置。
所述的资源管理器,其中,所述控制指令卸载模块,具体包括:当***单位时间内总负载(DBF(l)=Σ(si+εbi))对于任意控制指令i远大于资源总供给(SBF(l))时,即,DBF(l)>SBF(l),抛弃无法满足需求控制指令,避免无效分配导致资源利用率降低,即满足新的负载DBF*(l)≤SBF(l),其中ε表示网络资源分配时的干扰因子;当DBF(l)<SBF(l)时,增加高优先级控制指令资源配置,为***后续控制指令到达降低负载;当DBF(l)<<SBF(l),延长低优先级控制指令确定性截止期,提高***容错性;更新资源配置后生成控制指令卸载调度表。如图2所示。
进一步的,***中网算资源利用率可表示为:
其中,U(l)为时间窗口l内的资源利用率,根据不同情况下资源利用率大小,进一步优化DBF<SBF或DBF<<SBF情况下细粒度控制指令资源分配,其中,细粒度是指对产线任务集中所有计算任务进行建模,并分别构建状态、动作、奖励值。细粒度控制指令资源分配可以采用如下技术方案:一种基于深度强化学习的算力资源度量方法,申请号:202210677394.9,公开号:CN115168027A,即,最大化U(l)下的细粒度资源配置。
如图3所示,所述的网算容器管理方法,所述网算资源池,包括:
边缘物理节点计算能力资源,将边缘物理节点中计算能力,通过容器虚拟化及量化技术进行统一管控;
资源管理器与边缘物理节点间各链路网络传输资源,用于描述资源管理器与边缘物理节点间传输速率、带宽等;
网算资源一体化,将各边缘物理节点计算能力与传输速率等进行统一表征,即网络约束下的实际计算能力,便于资源管理器为各控制指令分配满足其响应需求的网算资源。
进一步的,所述的网算容器管理方法,所述的网算容器,包括:
应用模块,用于将控制指令程序封装至网算容器内;
库文件,包括支撑控制指令运行必要函数;
所述的边缘物理节点,其操作***中通过PID namespace函数为控制指令创建子进程,network namespace函数为网算容器协同等操作构建路由表,cgroup函数为网算容器计算资源进行隔离。
网算容器的设计与实现,可以采用如下技术方案:
在云边协同的信息物理生产***中,首先获取当前资源供需情况,通过读取任务属性分析任务确定性需求对应的网络、计算资源博弈关系,同时,通过负载监控服务获取***当前网络、计算资源利用情况;随后,分析网络、计算资源供给边界,即分析各任务在网络、计算资源共享竞争环境下,满足各自确定性需求所需的网络、计算资源供给阈值上、下界,其下界确定依据由任务自身确定性需求决定,上界确定依据由***中任务负载与资源供给共同决定;然后,生产网算资源配置表,即,在满足***中任务确定性需求的资源范围内进行资源配置,并结合任务优先级进行共享资源供给调节,其调节目标为满足***中所有任务的确定性需求,输出结果为任务集的网络、计算资源配置表;最后,生成网算容器,即,根据信息物理生产***中对任务的编排调度信息,以及本发明中形成的网络、计算资源配置表,在边缘节点或云端为任务生产相应的容器,并配置对应的网络、计算资源,即,为任务配置各自的网算容器。本发明的网算资源配置表生成流程如图5所示。
具体地,本发明的实现包括以下四个步骤:
步骤1:获取当前资源供需情况;
步骤2:分析网络、计算资源供给边界;
步骤3:生成网算资源配置表;
步骤4:生成网算容器;
步骤1中的通过负载监控服务获取当前资源供需情况,包括:
步骤1.1:***信息获取-架构,组织形式,节点,网络等基本信息;
步骤1.2:任务信息获取-到达时间,周期,截止期,计算量,参数量,负载,优先级等;
步骤1.3:网络资源利用率;
步骤1.4:计算资源利用率;
步骤1.5:确定性可保障的网算博弈关系。
所述步骤1.1中信息物理生产***的架构为一种云-端两级架构,云端是由多个分布式的云服务器集群构成,这些集群网络、计算等资源数量不同,地理位置也不同,其上部署有Kubernetes,它们共同组成了一个大型的高可用Kuberetes集群,因此每台云服务器可以称为一个kubernetes节点。终端是一些工业机器人与传感器,它们可以利用局域网以及广域网来使用云中资源,以处理自身任务。
所述步骤1.2具体为kubernetes待调度任务信息的获取,其中待调度任务i的相关信息包括到达时间si,周期Ti,相对截止期di,计算量ci,负载Di,优先级ωi。task set表示***的待调度任务集。在kubernetes中,这些任务信息被存储在事件对象中,当一个Pod对象创建之前,kubernetes***会在etcd中记录一个相关事件,其中会包含有关该任务的所有信息,通过使用kubectl命令行工具相关命令可以获取这些信息。
所述步骤1.3计算任意kubernetes节点的网络资源利用率,通过使用Kubernetes Dashboard资源查看组件可以获取各个节点的网络资源利用率node set表示kubernetes集群节点集。
所述步骤1.4计算各节点的计算资源利用率,通过使用metrics资源查看组件可以查看节点j的CPU资源总量以及利用率等指标。
所述步骤1.5包含以下步骤:
步骤1.5.1:确定***中各待调度任务i网络和计算资源的约束。网络资源约束表达式为,
∑itrans≤B,
计算资源约束表达式为,
∑icomput≤S,
其中itrans为任务i获得的网络资源,icomput为任务i获得的计算资源,B为总传输资源也即***网络资源总量,S为总计算资源也即***计算资源总量。
步骤1.5.2:对任务u的传输与计算性能进行代数表征。传输性能表征表达式为,
计算性能表征表达式为,
其中表示任务被Kubernetes集群成功调度后需要的数据传输时间,表示任务被kubernetes集群成功调度后需要的任务计算时间,workload即任务负载Di,calculation即任务计算量ci,n表示任务i获得的时隙或线程数量,slot表示传输时隙,thread表示线程。
步骤1.5.3:对***的制造业务约束进行代数表征。具体约束表达式为:
其中Δ为任意大于0的实数,这保证了等号恒不成立。
步骤1.5.4:传输性能与计算性能的非线性耦合关系的确定。
所述步骤1.5.4具体为:
由于对于任意待调度任务i,其传输性能与计算性能/>具有复杂的非线性耦合关系,难以通过使用传统的数学模型推导方式来对二者的关系进行表征。因此,引入了机器学习模型来对该非线性耦合关系进行拟合。
进一步地,考虑到待拟合的模型只有一个自变量与一个因变量,在进行算法选择时综合分析了算法的非线性模型拟合能力、训练速度和训练成本后,本专利选择使用径向基神经网络来对二者的关系曲线进行拟合。
进一步地,该神经网络算法以网络性能为输入,以计算性能为输出,训练好的模型用Model表示,训练过程如下式,
进一步地,神经网络本质上就是自变量与因变量之间的一种函数关系,因此训练好的神经网络模型可以用如下数学表达式表示,
其中函数关系f(*)为训练好的神经网络模型。
步骤2中的分析网络、计算资源供给边界,包括:
步骤2.1:网络资源统一管控;
步骤2.2:计算资源统一管控;
步骤2.3:网络边界分析,仅考虑需要卸载或迁移情况,否则本地执行时网络需求为0;
步骤2.4:计算边界分析。
步骤2.1具体为:
已知在TSN标准802.1AS中,通过采用BMCA算法,可实现TSN全网ns级精度时间同步,结合802.Qat协议,通过沿路由路径,对流进行端到端带宽分配和资源预留,可以实现us~ms级时隙调节;在此基础上结合802.Qbv协议,在出端口通过时间感知整形的门控列表,可以保障传输的确定性时延和抖动。
另一方面,以工业5G URLLC场景为例,通过分析5G R17版本标准可知,5G中定义了三种子载波间隔和3个响应的时间槽长度,分别为(15kHZ,30kHZ,60kHZ)和(1000us,500us,250us);通过分配不同子载波频率和时隙,可以实现确定性时延和抖动。
为了实现网络资源的统一管控,首先要构建“时隙-频谱”5G虚拟资源切片与“时隙-路由/节点”TSN/WIA虚拟资源切片,以时隙为纽带建立一体化虚拟网络资源池。结合上述提及的TSN和5G网络的特性,可以实现网络部分的时隙统一。最后,再通过将频谱-时隙的5G切片资源和时隙-路由/节点的TSN/WIA虚拟切片资源进行映射,进一步实现异构网络资源的统一管控。
步骤2.2具体为:
利用容器虚拟化或其它虚拟化技术,限制处理器的工作频率以及内核周期内的复用时隙数,来实现对计算类型资源的虚拟分配。通过构建“时隙-核”CPU虚拟资源块与“时隙-线程”GPU虚拟资源块,以时隙为纽带建立一体化虚拟硬件资源池,将异构物理节点CPU虚拟资源块与GPU虚拟资源块进行映射,实现异构计算资源的统一管控。其中CPU以单个CPU核为资源分配粒度,GPU以单卡的1%计算能力为资源分配粒度进行分配。
所述步骤2.3对网络边界进行分析具体为:
首先,对任务i的网络资源上界进行分析,为了保证任务的确定性,传输时间应当尽可能小,因此上界为当前网络类型的资源总量。
进一步地,对任务i的网络资源下界进行分析,根据步骤1.5.3得到***的制造业务约束表达式,当任务i的网络资源刚好取得下界时,等号刚好可以取得,且Δ无限趋近于0,因此约束表达式可以进一步转换为如下形式,
进一步地,再结合步骤1.5.4中得到的计算性能与传输性能之间的非线性耦合关系,即可以得到此时任务i的网络资源下界/>进一步地,得到任务i的网络资源边界为/>
完整的计算过程如下,通过使用python中的符号计算库SymPy,可以将网络性能的代数表达式作为模型输入,从而输出一个含有/>表达式的输出,再用该输出替换上式中的计算性能表达式/>最后将任务i的具体workload、calculation和di的值代入即可求出网络资源下界。
所述步骤2.4对计算边界进行分析。首先,对任务i的计算资源上界进行分析,为了保证任务的确定性,计算时间应当尽可能小,因此上界为当前计算类型的资源总量。
进一步地,对任务i的计算资源下界进行分析。在步骤2.3中已经解出了网络资源的下界,将该网络资源下界的值以及workload、calculation和di代入等式中,即可求解出计算资源的下界/>因此任务i的计算边界为/>
步骤3中的生成网算资源配置表,可基于现有任意调度算法进行网络、计算资源的统一分配,其区别在于不同算法对应的优化目标有所区别,本实施例中以计算负载平均分配和可调度性为目标生产网算资源配置表,包括:
步骤3.1:以各节点资源利用率为平均分配评判指标;
步骤3.2:以固定优先级调度策略为基础调度方法对任务进行资源调度,各任务初始资源需求按资源下界分配,调度过程中考虑利用率均衡;
步骤3.3:当所有任务资源都满足分配时,结束,返回任务网算资源配置表;
步骤3.4:否则,分析资源瓶颈,即哪些任务不可调度,是缺少哪类资源;
步骤3.5:根据资源边界和非线性耦合关系,对由余量的资源进行调节,提高多余类型资源供给,重新进行调度,每次调节资源比例为a%;
步骤3.6:若所有任务都可调度,返回可调度性为100%,及当前分配下的节点负载平均利用率;
步骤3.7:若进行n(n依据实际需求而定)次调节后依然无法100%调度,停止调度,返回期间可调度性最优结果和对应的负载平均利用率。
具体地,所述步骤3.1具体为,根据步骤1.3所述方法可获取各节点网络资源利用率,根据步骤1.4所述方法可获取各节点计算资源利用率。
将各节点的网络、计算资源利用率分别加权平均可得到当前Kubernetes集群的平均网络资源与平均计算资源利用率/>
进一步地,充分考虑整个集群的负载均衡,各集群网络资源利用率离散度计算公式为:
集群计算资源利用率离散度计算公式为:
进一步地,利用线性加权法同时考虑集群网络和计算资源负载均衡,令网络资源利用率离散度的权重为α,α默认为0.5,可根据实际需求手动调节;j表示集群物理节点,如***中的边缘服务器等。加权后的总资源利用率离散度公式为:
所述步骤3.2具体为:
将任务集中所有任务按照优先级进行排序,按优先级顺序由高到低依次进行调度。对待调度任务i,根据步骤2.3和步骤2.4得到的资源下界为其分配相应的网络与计算资源,同时求出任务i在每一个可调度节点上的总资源利用率的离散度,并求出这些离散度的最小值,即
进一步地,将待调度任务i调度到取得最小值的节点j上。将此时的任务编号、节点编号、网络资源分配以及计算资源分配记录到资源配置表中。
所述步骤3.3具体为,当所有任务资源均满足分配时,停止调度算法,输出资源配置表。
所述步骤3.4具体为:
在调度过程中,每当遇到任务i由于缺少某一类资源而无法成功调度时,分析出该任务具体缺少哪类资源,并将其记录下来,跳过该任务进行下一个任务的调度。
所述步骤3.5具体为:
根据步骤3.4的分析结果,步骤2.3和步骤2.4所述资源边界以及步骤1.5.4所述的非线性耦合关系,将网络资源需求与计算资源需求相互转化,对由余量的资源进行调节,提高多余类型资源供给,对未成功调度的任务重新进行调度,每次调节资源比例为a%,a由实际需求决定。
所述步骤3.6具体为:
若所有任务均可调度,返回可调度率为100%,同时返回此时的节点网络与计算资源平均利用率,以及网算资源配置表。
所述步骤3.7具体为:
若进行n次调节后仍存在任务不可调度,则停止调节,返回调节过程中的最优可调度性,此时的节点网络与计算资源平均利用率,以及网算资源配置表。
步骤4中生成网算容器,可基于现有网络管理技术如SDN、Terway等,现有虚拟化技术如vm、docker等进行实现,包括:
步骤4.1:网络资源分配;
步骤4.2:计算资源分配;
步骤4.3:构建网算容器。
所述步骤4.1具体为:
本实施例通过使用市面上已有网络插件为网算容器分配网络资源,以阿里云Terway为例,在kubernetes***中,Pod是调度的最小单位,因此为网算容器分配网络资源是通过给对应的Pod分配来实现的。
具体实现方法为在编写定义Pod的yaml文件时,在文件的metedata字段内添加带宽限制条件,将ingress-bandwidth和egress-bandwidth的限制带宽值设置为步骤3中获得的网算资源配置表中的要求带宽值。
所述步骤4.2具体为:
Kubernetes可以在pod的配置文件中为pod预先定义要求的计算资源,具体实现方法为在编写定义Pod的yaml文件时,在文件的容器资源字段内将容器的计算资源的请求值和限制值设置为相同大小,同时令其等于步骤3中获得的网算资源配置表中的要求值。
所述步骤4.3具体为:
在对网算容器的网络和计算资源进行配置后,还需要将容器调度到步骤3中获得的网算资源配置表中要求的云服务器节点。通过使用Kubernetes调度器功能NodeBinding,在Pod的YAML文件中添加nodeSelector字段,并指定该Pod调度到名称为获得的网算资源配置表中要求的节点上。在以上配置工作都完成后,生成网算容器。在Kubernetes中完整的Pod资源配置文件内容如附图6所示。

Claims (9)

1.基于网算容器的信息物理生产***,其特征在于,包括:
资源管理器,用于根据控制指令确定性响应需求,以最大化满足控制指令需求的控制指令数量为目标,为各控制指令按需分配资源,并卸载到控制指令对应的物理节点;
物理节点,用于收到卸载的控制指令后,建立相应的网算容器,通过子进程的形式独立运行,网算容器通过将核-时隙与进程-时隙进行映射,实现异构计算资源的统一管控。
2.根据权利要求1所述的基于网算容器的信息物理生产***,其特征在于,所述控制指令用于表征网络化控制***中任务的执行负载,以为分配网络、计算资源提供执行依据;包括:执行时间、截止期、计算量、神经网络参数量。
3.根据权利要求1所述的基于网算容器的信息物理生产***,其特征在于,所述资源管理器,包括:
资源评估模块,用于读取控制指令计算量w与参数量p,并获得当最大传输时间开销为sltrans时,可得最小网络资源分配为αp/sltrans;根据控制指令确定性约束下所需计算与传输开销及对应资源函数,得到控制指令的执行时间;
预分配模块,用于构建基于资源分配、执行开销以及确定性约束的控制指令模型,根据控制指令的执行时间、采用EDF调度方法结合控制指令模型所建立的任务特征进行资源预分配,生成预分配调度表;
控制指令卸载模块,用于根据网算资源池当前负载对预分配调度表进行优化,并根据优化后的调度表对控制指令进行卸载,使所卸载的物理节点中生成相应的网算容器;
SDN控制模块,根据优化后的调度表对网络控制器中接口流量带宽进行配置,调整计量表及队列设置,实现对控制指令传输速率的定量配置。
4.根据权利要求3所述的基于网算容器的信息物理生产***,其特征在于,所述资源评估模块,执行以下步骤:
控制指令计算量w与神经网络参数量p,即,计算时间开销可表示为Tcompt=w/s,其中,s为控制指令计算资源分配,当最大计算时间开销为slcompt时,最小计算资源分配为w/slcompt
传输时间开销表示为Ttrans=αp/b,其中b为控制指令网络资源分配,α为α=Co(kwkhCi+1),表示每个神经网络的参数量,其中Co表示输出通道,表示该层有Co个卷积核,Ci表示输入通道数,kw表示卷积核宽,kh表示卷积核高;kwkhCi表示一个卷积核的权重数量,1表示偏置量;
当最大传输时间开销为sltrans时,得最小网络资源分配为αp/sltrans
控制指令确定性约束下所需计算与传输开销及对应资源函数为:
s.t.Tcompt≤slcompt
Ttrans≤sltrans
∑si≤S
∑bi≤B
其中,ti为控制指令i执行时间,di为控制指令i最大响应时间即截止期,wi为控制指令i计算量,pi为控制指令i参数量,si为控制指令i所分配的计算资源,bi为控制指令i所分配网络资源,S为总计算资源,B为总传输资源。
5.根据权利要求3所述的基于网算容器的信息物理生产***,其特征在于,所述控制指令卸载模块,执行以下步骤:
当网络化实时控制***单位时间内总负载(DBF(l)=Σ(si+εbi)),对于任意控制指令i大于资源总供给(SBF(l))时,即,DBF(l)>SBF(l),抛弃无法满足确定性约束的控制指令,以避免无效分配导致资源利用率降低,即满足新的负载DBF*(l)≤SBF(l);
当DBF(l)<SBF(l)时,增加高优先级控制指令资源配置,为网络化实时控制***后续控制指令到达降低负载;
当DBF(l)<<SBF(l)即符合设定范围时,延长低优先级控制指令确定性截止期,以提高***容错性;
更新通过SDN控制模块进行控制指令传输速率的定量配置后生成控制指令卸载调度表。
6.根据权利要求5所述的基于网算容器的信息物理生产***,其特征在于,通过网算资源利用率进行细粒度控制指令资源分配,具体如下:
其中,U(l)为时间窗口l内的资源利用率;
当资源利用率超过阈值,则优化DBF<SBF或DBF<<SBF情况下进行控制指令资源分配,实现最大化U(l)下的细粒度资源配置。
7.基于网算容器的信息物理生产***管理方法,其特征在于,包括以下步骤:
资源管理器根据控制指令确定性响应需求,以最大化满足控制指令需求的控制指令数量为目标,为各控制指令按需分配资源,并卸载到控制指令对应的物理节点;
物理节点收到卸载的控制指令后,建立相应的网算容器,通过子进程的形式独立运行,网算容器通过将核-时隙与进程-时隙进行映射,实现异构计算资源的统一管控。
8.根据权利要求7所述的基于网算容器的信息物理生产***管理方法,其特征在于,所述网算容器根据控制指令分配资源情况,对多个网算容器构成的网算资源池中资源进行隔离并生产相应资源;所述网算容器运行时资源相互独立。
9.根据权利要求7所述的基于网算容器的信息物理生产***管理方法,其特征在于,所述网算容器的建立,包括以下步骤:
获取当前资源供需情况:通过读取控制指令的任务属性分析任务确定性需求对应的网络、计算资源博弈关系,并获取当前网络、计算资源利用情况;
分析网络、计算资源供给边界:分析各任务在网络、计算资源共享竞争环境下,满足各自确定性需求所需的资源范围;
生产-生成网算资源配置表:在满足任务确定性需求的资源范围内进行资源配置,并结合任务优先级进行共享资源供给调节,输出结果为任务集的网络、计算资源配置表;
生成网算容器:根据对任务的编排调度信息,以及任务集的网络、计算资源配置表,在边缘节点或云端为任务生产相应的容器,并配置对应的网络、计算资源,实现为任务配置各自的网算容器。
CN202310738413.9A 2023-06-21 2023-06-21 基于网算容器的信息物理生成***及其管理方法 Active CN116795545B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310738413.9A CN116795545B (zh) 2023-06-21 2023-06-21 基于网算容器的信息物理生成***及其管理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310738413.9A CN116795545B (zh) 2023-06-21 2023-06-21 基于网算容器的信息物理生成***及其管理方法

Publications (2)

Publication Number Publication Date
CN116795545A true CN116795545A (zh) 2023-09-22
CN116795545B CN116795545B (zh) 2024-04-16

Family

ID=88035838

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310738413.9A Active CN116795545B (zh) 2023-06-21 2023-06-21 基于网算容器的信息物理生成***及其管理方法

Country Status (1)

Country Link
CN (1) CN116795545B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117992217A (zh) * 2024-01-08 2024-05-07 中国科学院沈阳自动化研究所 工业控制***运行资源的分配方法及***、介质、终端

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9378044B1 (en) * 2015-03-28 2016-06-28 Vmware, Inc. Method and system that anticipates deleterious virtual-machine state changes within a virtualization layer
CN106776005A (zh) * 2016-11-23 2017-05-31 华中科技大学 一种面向容器化应用的资源管理***及方法
CN109743261A (zh) * 2019-01-07 2019-05-10 中国人民解放军国防科技大学 一种基于sdn的容器网络资源调度方法
CN112000421A (zh) * 2020-07-15 2020-11-27 北京计算机技术及应用研究所 基于超融合架构的管理调度技术
CN113452566A (zh) * 2021-07-05 2021-09-28 湖南大学 一种云边端协同资源管理方法及***
CN113993214A (zh) * 2021-09-29 2022-01-28 西安电子科技大学 一种任务驱动空间信息网络资源管理***及方法
CN116185554A (zh) * 2021-11-29 2023-05-30 华为技术有限公司 一种配置装置、调度装置及配置方法和调度方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9378044B1 (en) * 2015-03-28 2016-06-28 Vmware, Inc. Method and system that anticipates deleterious virtual-machine state changes within a virtualization layer
CN106776005A (zh) * 2016-11-23 2017-05-31 华中科技大学 一种面向容器化应用的资源管理***及方法
CN109743261A (zh) * 2019-01-07 2019-05-10 中国人民解放军国防科技大学 一种基于sdn的容器网络资源调度方法
CN112000421A (zh) * 2020-07-15 2020-11-27 北京计算机技术及应用研究所 基于超融合架构的管理调度技术
CN113452566A (zh) * 2021-07-05 2021-09-28 湖南大学 一种云边端协同资源管理方法及***
CN113993214A (zh) * 2021-09-29 2022-01-28 西安电子科技大学 一种任务驱动空间信息网络资源管理***及方法
CN116185554A (zh) * 2021-11-29 2023-05-30 华为技术有限公司 一种配置装置、调度装置及配置方法和调度方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ABDULLAH LAKHAN,MUHAMMAD SULEMAN MEMON,QURAT-UL-AIN MASTOI,MOHAMED ELHOSENY,MAZIN ABED MOHAMMED,MUMTAZ QABULIO,MOHAMED ABDEL-BASSE: "Cost-efficient mobility offloading and task scheduling for microservices IoVT applications in container-based fog cloud network", SPRINGER *
夏天豪,夏长清,潘昊,许驰,金曦: "基于强化学习的算力资源度量方法", 《燕山大学学报》 *
李锦坤: "移动边缘计算异构环境中服务放置与任务调度策略研究", 硕士电子期刊 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117992217A (zh) * 2024-01-08 2024-05-07 中国科学院沈阳自动化研究所 工业控制***运行资源的分配方法及***、介质、终端
CN117992217B (zh) * 2024-01-08 2024-07-23 中国科学院沈阳自动化研究所 工业控制***运行资源的分配方法及***、介质、终端

Also Published As

Publication number Publication date
CN116795545B (zh) 2024-04-16

Similar Documents

Publication Publication Date Title
CN110297699B (zh) 调度方法、调度器、存储介质及***
CN108009023B (zh) 混合云中基于bp神经网络时间预测的任务调度方法
US8997107B2 (en) Elastic scaling for cloud-hosted batch applications
CN108228347A (zh) 一种任务感知的Docker自适应调度***
CN104580396B (zh) 一种任务调度方法、节点及***
US7720551B2 (en) Coordinating service performance and application placement management
Mechalikh et al. PureEdgeSim: A simulation framework for performance evaluation of cloud, edge and mist computing environments
CN106406253B (zh) 控制和/或分析工业过程的***和方法
CN103699433B (zh) 一种于Hadoop平台中动态调整任务数目的方法及***
CN116795545B (zh) 基于网算容器的信息物理生成***及其管理方法
CN110262897B (zh) 一种基于负载预测的Hadoop计算任务初始分配方法
Guo et al. Delay-optimal scheduling of VMs in a queueing cloud computing system with heterogeneous workloads
CN114787830A (zh) 异构集群中的机器学习工作负载编排
CN110069341A (zh) 边缘计算中结合功能按需配置的有依赖关系任务的调度方法
CN116032767A (zh) 一种面向智融标识网络的算力服务链管控***架构
CN117971499B (zh) 资源配置方法、装置、电子设备和存储介质
Singh et al. A comparative study of various scheduling algorithms in cloud computing
Ma et al. Maximizing container-based network isolation in parallel computing clusters
CN105872109B (zh) 云平台负载运行方法
CN114860417B (zh) 多核神经网络处理器及用于该处理器多任务分配调度方法
CN116996941A (zh) 基于配网云边端协同的算力卸载方法、装置及***
CN114978913B (zh) 一种基于切链的服务功能链跨域部署方法及***
CN116795546B (zh) 面向信息物理生产***的确定性网算容器设计与实现方法
CN114936089A (zh) 资源调度方法、***、设备及存储介质
CN114896070A (zh) 一种用于深度学习任务的gpu资源分配方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant