CN112181664A - 负载均衡方法及装置、计算机可读存储介质及电子设备 - Google Patents

负载均衡方法及装置、计算机可读存储介质及电子设备 Download PDF

Info

Publication number
CN112181664A
CN112181664A CN202011105808.8A CN202011105808A CN112181664A CN 112181664 A CN112181664 A CN 112181664A CN 202011105808 A CN202011105808 A CN 202011105808A CN 112181664 A CN112181664 A CN 112181664A
Authority
CN
China
Prior art keywords
resource process
request
resource
prediction model
load
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011105808.8A
Other languages
English (en)
Other versions
CN112181664B (zh
Inventor
江士雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Netease Hangzhou Network Co Ltd
Original Assignee
Netease Hangzhou Network Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Netease Hangzhou Network Co Ltd filed Critical Netease Hangzhou Network Co Ltd
Priority to CN202011105808.8A priority Critical patent/CN112181664B/zh
Publication of CN112181664A publication Critical patent/CN112181664A/zh
Application granted granted Critical
Publication of CN112181664B publication Critical patent/CN112181664B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Debugging And Monitoring (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本公开涉及计算机技术领域,提供了一种负载均衡方法及装置、计算机可读存储介质和电子设备。其中,上述方法应用于服务器,服务器包括多个资源进程,各资源进程用于处理对服务器的请求,上述方法包括:响应于客户端的当前请求,获取当前时间戳对应的各资源进程的负载预测模型中的请求数量参数的值,以根据请求数量参数的值确定各资源进程的目标负载预测模型;根据各目标负载预测模型对各资源进程的负载数据进行预测,以确定当前请求的目标资源进程,并将当前请求分配给目标资源进程。本公开基于获取的当前时间戳对应的各资源进程的负载预测模型中的请求数量参数的值,可以提高负载分配的均衡性与准确性。

Description

负载均衡方法及装置、计算机可读存储介质及电子设备
技术领域
本公开涉及计算机技术领域,具体而言,涉及一种复杂均衡方法、负载均衡装置、计算机可读存储介质及电子设备。
背景技术
在计算机应用中,可以使用多进程的方式来提高服务器的处理效率。以游戏服务器为例,对于大型多人在线网络游戏而言,其具有同时在线玩家人数多,高频率请求服务器资源的特点。因此,这类游戏服务器大多采用多进程的方式将相同的资源请求分配到功能相同的不同资源进程中,以提高服务器的承载人数。
现有的资源进程的分配方式主要有两种,一种是随机法,即对于每个请求而言,通过均匀分布的随机数算法,得到一个随机数,选中一个与随机数对应的资源进程进行请求处理。
另一种是单点分配法,即在服务器中启动一个分配进程,每一个请求都通过该分配进程获得一个真正处理的资源进程,这个单一的分配进程能够知道所有的资源进程的历史请求数,从而选择一个历史分配数较少的资源进程进行分配,或者这个分配进程可以根据各个进程的负载情况选择负载较低的资源进程进行分配。
然而,对于随机法而言,在数据量较少的情况下,可能会出现严重的不均匀,导致某些时刻分配不均匀的进程超载。
对于单点分配法而言,当以历史的分配数进行分配时,存在某些请求已经被处理完成的情况,因此历史的分配数不能反映当前的负载情况,从而导致分配不均匀的问题。当以负载情况进行分配时,分配进程得到的资源进程的负载数据是由资源进程同步的,由于资源进程和分配进程的数据同步存在延迟的情况,导致分配进程得到的数据并不能准确反映每个资源进程的当前状态,所以也会存在分配不均的问题。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种负载均衡方法及装置、计算机可读存储介质及电子设备,进而至少在一定程度上改善负载分配不均的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的第一方面,提供了一种负载均衡方法,应用于服务器,所述服务器包括多个资源进程,各所述资源进程用于处理对所述服务器的请求,包括:
响应于客户端的当前请求,获取当前时间戳对应的各所述资源进程的负载预测模型中的请求数量参数的值,以根据所述请求数量参数的值确定各所述资源进程的目标负载预测模型;
根据各所述目标负载预测模型对各所述资源进程的负载数据进行预测,以确定所述当前请求的目标资源进程,并将所述当前请求分配给所述目标资源进程;
其中,根据各所述资源进程的负载预测模型在最近一次更新后到所述当前时间戳的时间间隔内,各所述资源进程被分配的请求确定所述请求数量参数的值。
在本公开的一种示例性实施例中,基于前述方案,所述负载预测模型根据所述资源进程在最近一次更新时被分配的请求数量和在更新时间间隔内所述资源进程被分配的访问请求数量的变化值预测在下一次更新时间间隔内的负载数据;
所述负载预测模型包括卡尔曼滤波模型。
在本公开的一种示例性实施例中,基于前述方案,所述卡尔曼滤波模型通过以下形式确定:
Figure BDA0002726922630000031
其中,A为所述卡尔曼滤波模型的变换矩阵,n为所述卡尔曼滤波模型的参数更新次数,an为所述卡尔曼滤波模型n-1次更新后到所述当前时间戳的时间间隔内所述资源进程被分配的请求数量参数,xn-1为第n-1次更新时所述资源进程被分配的访问请求数量,Δxn-1为第n-2次到第n-1次的更新时间间隔内所述资源进程被分配的访问请求数量的变化值,Xn为卡尔曼滤波模型的状态预测向量,xn为第n次更新时所述资源进程被分配的请求数量的预测值,Δxn为相邻两次更新时间间隔内所述资源进程被分配的请求数量的变化量的预测值,H为卡尔曼滤波模型的输出向量,H用于将所述状态预测向量Xn转换为所述资源进程的负载预测值Zn,Q为所述卡尔曼滤波模型的过程噪声协方差矩阵,R为所述卡尔曼滤波模型的观测噪声协方差矩阵。
在本公开的一种示例性实施例中,基于前述方案,将所述当前请求分配给所述目标资源进程后,所述方法还包括:
根据所述当前请求更新所述目标资源进程所对应的负载预测模型中的请求数量参数的值。
在本公开的一种示例性实施例中,基于前述方案,所述更新所述目标资源进程所对应的负载预测模型中的请求数量参数的值,包括:
获取预设的所述当前请求对所述目标资源进程的资源占用权重;
根据所述资源占用权重增加所述目标资源进程的负载预测模型中的请求数量参数的值,以更新所述请求数量参数的值。
在本公开的一种示例性实施例中,基于前述方案,所述服务器还包括至少一个分配进程,所述分配进程用于为所述请求分配所述资源进程;
所述负载预测模型的更新通过以下方式实现:
所述分配进程按照预设时间间隔获取各所述资源进程的负载数据;
根据所述负载数据对各所述资源进程的负载预测模型进行参数更新;
其中,在对各所述资源进程的负载预测模型进行参数更新时,将各所述负载预测模型中的请求数量参数的值清零。
在本公开的一种示例性实施例中,基于前述方案,所述确定所述当前请求的目标资源进程,包括:
确定预测的所述负载数据中最小值所对应的资源进程为所述目标资源进程。
根据本公开的第二方面,提供了一种负载均衡装置,应用于服务器,所述服务器包括多个资源进程,各所述资源进程用于处理对所述服务器的请求,包括:
目标负载预测模型确定模块,被配置为响应于客户端的当前请求,获取当前时间戳对应的各所述资源进程的负载预测模型中的请求数量参数的值,以根据所述请求数量参数的值确定各所述资源进程的目标负载预测模型;
目标资源进程分配模块,被配置为根据各所述目标负载预测模型对各所述资源进程的负载数据进行预测,以确定所述当前请求的目标资源进程,并将所述当前请求分配给所述目标资源进程;
其中,根据各所述资源进程的负载预测模型在最近一次更新后到所述当前时间戳的时间间隔内,各所述资源进程被分配的请求确定所述请求数量参数的值。
根据本公开的第三方面,提供了一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如上述实施例中第一方面所述的负载均衡方法。
根据本公开实施例的第四方面,提供了一种电子设备,包括:处理器;以及,存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如上述实施例中第一方面所述的负载均衡方法。
由上述技术方案可知,本公开示例性实施例中的负载均衡方法、负载均衡装置,以及实现所述负载均衡方法的计算机可读存储介质及电子设备,至少具备以下优点和积极效果:
在本公开的一些实施例所提供的技术方案中,响应于客户端的当前请求,首先,获取当前时间戳对应的各资源进程的负载预测模型中的请求数量参数的值,从而可以根据该请求数量参数的值确定各资源进程的目标负载预测模型;然后,可以根据各目标负载预测模型对各资源进程的负载数据进行预测,以确定当前请求的目标资源进程,并将当前请求分配给所述目标资源进程;其中,请求数量参数的值可以根据各资源进程的负载预测模型在最近一次更新后到当前时间戳的时间间隔内,各资源进程被分配的请求确定。与相关技术相比,一方面,本公开基于获取的各资源进程的负载预测模型在最近一次更新后到所述当前时间戳的时间间隔内,各资源进程被分配的请求,可以实时更新各资源进程的负载状况,从而可以提高各资源进程的负载数据的预测准准确度,进而能够提高服务器中的各资源进程的负载分配的均衡性;另一方面,本公开基于确定的目标负载预测模型可以直接实现资源进程的分配,从而可以提高资源进程的分配效率。
本公开应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本公开一示例性实施例中负载均衡方法的流程示意图;
图2示出本公开一示例性实施例中更新负载预测模型的方法的流程示意图;
图3示出本公开一示例性实施例中更新请求数量参数的值的方法的流程示意图;
图4示出本公开一示例性实施例中跳字的显示控制装置的结构示意图;
图5示出本公开示例性实施例中计算机存储介质的结构示意图;以及,
图6示出本公开示例性实施例中电子设备的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
本说明书中使用用语“一个”、“一”、“该”和“所述”用以表示存在一个或多个要素/组成部分/等;用语“包括”和“具有”用以表示开放式的包括在内的意思并且是指除了列出的要素/组成部分/等之外还可存在另外的要素/组成部分/等。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。
在本公开的实施例中,首先提供了一种负载均衡方法,至少在一定程度上克服上述现有的相关技术中存在的缺陷。
图1示出本公开一示例性实施例中负载均衡方法的流程示意图,本实施例提供的负载均衡方法应用于服务器。其中,服务器包括多个资源进程,各个资源进程用于处理对该服务器的请求。参考图1,该方法包括:
步骤S110,响应于客户端的当前请求,获取当前时间戳对应的各资源进程的负载预测模型中的请求数量参数的值,以根据该请求数量参数的值确定各资源进程的目标负载预测模型;
步骤S120,根据各目标负载预测模型对各资源进程的负载数据进行预测,以确定当前请求的目标资源进程,并将当前请求分配给目标资源进程。
在图1所示实施例所提供的技术方案中,响应于客户端的当前请求,首先,获取当前时间戳对应的各资源进程的负载预测模型中的请求数量参数的值,从而可以根据该请求数量参数的值确定各资源进程的目标负载预测模型;然后,可以根据各目标负载预测模型对各资源进程的负载数据进行预测,以确定当前请求的目标资源进程,并将当前请求分配给所述目标资源进程;其中,请求数量参数的值可以根据各资源进程的负载预测模型在最近一次更新后到当前时间戳的时间间隔内,各资源进程被分配的请求确定。与相关技术相比,一方面,本公开基于获取的各资源进程的负载预测模型在最近一次更新后到所述当前时间戳的时间间隔内,各资源进程被分配的请求,可以实时更新各资源进程的负载状况,从而可以提高各资源进程的负载数据的预测准准确度,进而能够提高服务器中的各资源进程的负载分配的均衡性;另一方面,本公开基于确定的目标负载预测模型可以直接实现资源进程的分配,从而可以提高资源进程的分配效率。
以下对图1所示实施例中各个步骤的具体实施方式进行详细阐述:
在步骤S110中,响应于客户端的当前请求,获取当前时间戳对应的各资源进程的负载预测模型中的请求数量参数的值,以根据该请求数量参数的值确定各资源进程的目标负载预测模型;
其中,可以根据各个资源进程的负载预测模型在最近一次更新后到当前时间戳的时间间隔内,各资源进程被分配的请求确定负载预测模型中的请求数量参数的值。
在示例性的实施方式中,资源进程可以包括服务器中任何的可以真正处理请求的进程。资源进程可以响应客户端的请求,并完成该请求所对应的具体操作。各个资源进程的目标负载预测模型可以是各个参数的值已经确定的负载预测模型。
具体的,每个资源进程对应一个负载预测模型,负载预测模型中的参数至少可以包括:更新时刻该资源进程被分配的历史请求的数量、根据上一更新时刻到当前时刻的时间间隔内,该资源进程被分配的请求所确定的请求数量参数等。其中,当前时刻可以是当前时间戳,可以按照预设时间间隔获取资源进程的历史负载数据对负载预测模型进行更新,预设时间间隔可以是固定的,也可以是不固定的。
在示例性的实施方式中,负载预测模型可以根据资源进程在最近一次更新时被分配的请求数量和在更新时间间隔内所述资源进程被分配的访问请求数量的变化值预测在下一次更新时间间隔内的负载数据。
其中,负载预测模型包括卡尔曼滤波模型。当然,负载预测模型也可以包括扩展卡尔曼滤波模型、无迹卡尔曼滤波模型等其它可以根据上一时刻的数据预测下一时刻数据的模型。本示例性实施方式对此不做特殊限定。
示例性的,卡尔曼滤波模型中的参数至少也可以包括:上一更新时刻该资源进程被分配的历史请求数量、根据上一更新时刻到当前时间戳的时间间隔内,该资源进程被分配的请求所确定的请求数量参数等。卡尔曼滤波模型一种状态预测方法,其主要由状态预测方程和输出方程组成。
具体的,状态预测方程中的状态向量可以包括上述的上一更新时刻的资源进程的历史请求数量,状态预测方程中的输入数据可以包括上述的根据上一更新时刻到当前时刻的时间间隔内、资源进程被分配的请求所确定的请求数量参数的值。状态方程的输出可以包括根据上一时刻预测的当前时刻的请求数量。输出方程可以将预测的当前时刻的资源进程的请求数量转换为当前时刻的资源进程的负载数据进行输出。
在示例性的实施方式中,卡尔曼滤波模型的状态预测方程中的状态向量还可以包括相邻更新时间间隔内资源进程被分配的请求数量的变化值。这样,可以将该变化值作为一个基数,降低数据的浮动性,进而提升卡尔曼滤波模型的预测的稳定性。
示例性的,卡尔曼滤波模型可以通过以下形式确定:
Figure BDA0002726922630000081
其中,A为卡尔曼滤波模型的变换矩阵,n为卡尔曼滤波模型的参数更新次数,an为n-1次更新后到当前时间戳的时间间隔内,资源进程被分配的请求数量参数,
Figure BDA0002726922630000082
xn-1为n-1时刻的资源进程被分配的访问请求数量,Δxn-1为n-2次到n-1次的更新时间间隔内资源进程被分配的访问请求数量的变化值,Xn为卡尔曼滤波模型的状态预测向量,Xn是一个二维列向量,该二维列向量中的状态可以包括xn和Δxn,xn为第n次更新时资源进程被分配的请求数量的预测值,Δxn为相邻两次(n-1次和n次)更新时间间隔内资源进程被分配的请求数量的变化量的预测值,H为卡尔曼滤波模型的输出向量,H用于将状态预测向量Xn转换为资源进程的负载预测值Zn,Q为卡尔曼滤波模型的过程噪声协方差矩阵,R为所述卡尔曼滤波模型的观测噪声协方差矩阵。
在示例性的实施方式中,上述的变换矩阵A可以包括任何的2×2大小的矩阵,例如,
Figure BDA0002726922630000091
其中,矩阵A中各元素的取值为非负数。
上述的输出向量H可以是一个二维的行向量,其中,二维的行向量中与Δxn对应的行的取值大于与xn对应的行的取值,例如H=[2 4],其中,2为与状态预测向量中的xn为对应的行,4为与状态预测向量中的Δxn对应的行。即设置最近的分配数量(相邻两次更新时间间隔内的分配数量)对负载数据预测的影响大于历史分配数量(当前更新时间前的分配数量)的影响。
一般而言,请求对资源进程的占用具有一定的时效性,即越早的请求越有可能已经处理完成,其对资源进程的占用率的影响也就越小,所以设置历史分配数量对负载数据预测的影响小于最近分配数量的影响,可以提升卡尔曼滤波模型的预测准确性。
与此同时,通过将根据卡尔曼滤波模型最近一次更新后到当前时间戳的时间间隔内,资源进程被分配的请求确定的请求数量参数的值作为卡尔曼滤波模型的输入数据,来进行资源进程的负载数据的预测,可以实时准确的获取各个资源进程的当前负载状态,避免相关技术中因数据同步延迟而存在的当前状态反应不准确的问题,进而能够提高资源进程分配的准确性和均衡性。
示例性的,服务器中还包括至少一个分配进程,该分配进程用于为服务器中的请求分配资源进程,以使被分配到的资源进程可以处理对应的请求。
其中,分配进程在为请求分配资源进程时,可以根据各个资源进程对应的负载预测模型对各个资源进程的当前负载情况进行预测,以根据预测结果为当前请求分配资源进程。
示例性的,为了提高负载预测模型的预测准确度,可以按照预设时间间隔对各负载预测模型的参数进行更新,以根据最新状态对各个资源进程的当前负载情况进行预测。参考图2,更新负载预测模型的方法可以包括步骤S210-步骤S220。
在步骤S210中,分配进程按照预设时间间隔获取各资源进程的负载数据。
在示例性的实施方式中,负载数据可以包括每个资源进程对服务器的CPU(中央处理单元,Central Processing Unit)的占用率等。
示例性的,各个资源进程采集自身的历史负载数据,并按照预设时间间隔,例如,每3秒,向分配进程发送采集的负载数据。这样,分配进程可以按照对应的预设时间间隔,例如3秒,接收各个资源进程的历史负载数据。其中,历史负载数据可以包括更新时刻各个资源进程对服务器CPU的占用率。
分配进程获取到各个资源进程的负载数据后,在步骤S220中,根据该负载数据对各资源进程的负载预测模型进行参数更新。
示例性的,负载预测模型可以包括上述的卡尔曼滤波模型,其中,可以通过以下公式对卡尔曼滤波模型的参数进行更新:
Figure BDA0002726922630000101
其中,Kn=Pn|n-1·HT·Sn -1,Sn=H·Pn|n-1·HT+R,Pn|n-1=A·Pn-1·AT+Q,Kn为卡尔曼滤波增益,xn|n-1为根据n-1次更新时的状态预测的n次更新时的状态,Pn|n-1为根据n-1次更新时的后验估计误差协方差矩阵预测的n次更新时的后验估计误差协方差矩阵,Q为过程噪声协方差矩阵。
Figure BDA0002726922630000102
为n次更新时采集的负载数据,即上述的步骤S210中在第n次时间间隔时采集的负载数据,zn|n-1为根据n-1次更新的状态预测的n次更新时的状态而确定的第n次更新时的负载数据。
分配进程获取到各个资源进程的负载数据
Figure BDA0002726922630000111
后,可以根据获取到的负载数据
Figure BDA0002726922630000112
以及预测的zn|n-1,利用上述的公式
Figure BDA0002726922630000113
更新卡尔曼滤波模型的参数。
在按照预设时间间隔对预测模型,例如卡尔曼滤波模型,进行参数更新时,由于更新时刻采集的负载数据
Figure BDA0002726922630000114
已经能够准确的反映当前的负载状态,因此,可以将该资源进程的预测模型中的请求数量参数的值清零,即可以将卡尔曼滤波器中的请求数量参数的值an设置为零。
示例性的,以负载预测模型是卡尔曼滤波模型为例,上述步骤S110的具体实施方式可以是,响应于客户端的当前请求,分配进程确定从各个资源进程的卡尔曼滤波模型上次更新后到当前时间戳的时间间隔内,各个资源进程被分配的请求,根据各个资源进程被分配的请求确定各个资源进程的卡尔曼滤波模型的请求数量参数的值,将请求数量参数的值作为对应的卡尔曼滤波模型的输入,从而确定各个资源进程的目标负载预测模型。
其中,根据各个资源进程被分配的请求确定各个资源进程的卡尔曼滤波模型的请求数量参数的值的具体实施方式可以是,获取预设的各个请求对各资源进程的资源占用权重,根据资源占用权重增加各个资源进程的卡尔曼滤波模型的请求数量参数的值。
举例而言,可以根据请求的类型确定各个请求对资源进程的资源占用权重。具体的,如果所有的请求都是同一种类型,那么它们对资源进程的占用权重是相等的,例如,资源进程每被分配一个请求,该资源进程的负载预测模型的请求数量参数的值增加1。如果请求的类型不一样,例如,有k种类型的请求,可以根据预先测试的不同类型的请求对CPU占用的数据确定各类型的请求的权重,即K种类型中,对CPU的占用数据最低的请求a的资源占用权重设置为1,则对CPU的占用数据为请求a的α倍的请求b的资源占用权重可以设置为α,当某个资源进程被分配请求b时,该资源进程的负载预测模型的请求数量参数的值增加α。
根据各个资源进程的负载预测模型在上次更新时刻到当前时间戳的时间间隔内,各个资源进程被分配的请求,可以确定当前时间戳对应的各个资源进程的负载预测模型中的请求数量参数的值,从而生成当前时间戳对应的各个资源进程的目标负载预测模型。
继续参考图1,生成目标负载预测模型后,在步骤S120中,根据各目标负载预测模型对各资源进程的负载数据进行预测,以确定当前请求的目标资源进程,并将当前请求分配给目标资源进程。
在示例性的实施方式中,目标负载预测模型可以包括上述的请求数量参数的值已经确定的负载预测模型。目标资源进程可以是预测的负载数据中最小值所对应的资源进程。
示例性的,上述步骤S120的具体实施方式可以是,根据上一更新时刻的各个资源进程的负载数据、以及根据上一更新时刻到当前时间戳的时间间隔内各个资源进程被分配的请求所确定的请求数量参数的值,预测当前时刻各个资源进程的负载数据,从而确定预测的负载数据中最小值所对应的资源进程为目标资源进程,将当前请求分配给目标资源进程。
在将当前请求分配给目标资源进程后,还包括根据当前请求更新目标资源进程所对应的负载预测模型中的请求数量参数的值。
示例性的,更新目标资源进程所对应的负载预测模型中的请求数量参数的值的方法可以参考图3,该方法可以包括步骤S310-步骤S320。
在步骤S310中,获取预设的当前请求对目标资源进程的资源占用权重。
其中,在获取预设的当前请求对目标资源进程的资源占用权重之前,可以先确定各请求对资源进程的资源占用权重。
示例性的,确定各请求对资进程的资源占用权重的具体实施方式是,根据预先测试的不同类型的请求对CPU的占用数据确定各类型的请求的权重。其具体细节已在步骤S110中的相关部分进行描述,此处不再进行赘述。
确定各请求对资源进程的资源占用权重后,就可以获取当前请求对目标资源进程的资源占用权重。
接下来,在步骤S320中,根据资源占用权重增加目标资源进程的负载预测模型中的请求数量参数的值,以更新请求数量参数的值。
示例性的,请求数量参数的值的更新公式可以是an=an+aα,其中,an可以是目标资源进程的负载预测模型中的请求数量参数的值,aα可以是当前请求的资源占用权重。
举例而言,当前时间戳对应的目标资源进程的负载预测模型中的请求数量参数的值可以是an,当前请求对应的资源占用权重可以是aα,那么,将当前请求分配给目标资源进程后,目标资源进程的负载预测模型中的请求数量参数的值an可以被更新为an+aα
当下一个负载预测模型更新时刻到到来时,各个资源进程的当前负载状态已经准确的反映在了更新时使用的历史负载数据中,因此,可以将负载预测模型中的请求数量参数的值an设置为零。即在负载预测模型更新时刻,各个资源进程的负载预测模型中的请求数量参数的值an为零;在负载预测模型更新的时间间隔内,各个资源进程的负载预测模型中的请求数量参数的值,可以根据上一更新时刻到当前时间戳的时间间隔内,各个资源进程被分配的请求确定。
通过上述的步骤S110-步骤S120,当上述的预测模型是卡尔曼滤波模型时,通过预设时间间隔对卡尔曼滤波模型进行更新,根据卡尔曼滤波模型在多次参数更新后估计值会逼近真实值的特点,可以解决真实数据同步存在延迟导致的负载分配不均的问题。与此同时,通过对负载预测模型中的请求数量参数的更新,可以提高获取的各个资源进程的负载状态的准确性,从而提升预测的准确性,进而提高服务器的负载均衡的性能。
此外,通过对不同类型的请求的资源占用权重的设置,可以使本示例性实施例中的负载均衡方法具有普适性,即不依赖于特定的请求类型,不同的请求类型的分配都可以使用本示例性实施例中提供的负载均衡方法实现资源进程的分配。
进一步的,本示例性实施例中的负载均衡方法可以应用于任何的服务器,例如游戏服务器等,当然,本示例性实施例中的负载均衡方法也可以扩展到服务器集群中,实现多个服务器的负载均衡,这也在本公开的保护范围之内。
当本示例性实施例中的服务器为游戏服务器时,通过本示例性实施例提供的负载均衡方法,可以更加准确的利用游戏服务器的当前CPU负载状态进行资源进程的分配,提高分配结果的均衡性,从而提升游戏服务器的服务性能,例如增加同时承载的玩家人数。
本领域技术人员可以理解实现上述实施方式的全部或部分步骤被实现为由CPU执行的计算机程序。在该计算机程序被CPU执行时,执行本发明提供的上述方法所限定的上述功能。所述的程序可以存储于一种计算机可读存储介质中,该存储介质可以是只读存储器,磁盘或光盘等。
此外,需要注意的是,上述附图仅是根据本发明示例性实施方式的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
图4示出本公开示例性实施例中负载均衡装置的结构示意图。该负载均衡装置应用于服务器,所述服务器包括多个资源进程,各所述资源进程用于处理对所述服务器的请求。参考图4,该负载均衡装置400包括:目标负载预测模型确定模块410、目标资源进程分配模块420。其中:
上述的目标负载预测模型确定模块410,被配置为响应于客户端的当前请求,获取当前时间戳对应的各个资源进程的负载预测模型中的请求数量参数的值,以根据该请求数量参数的值确定各所述资源进程的目标负载预测模型;
上述的目标资源进程分配模块420,被配置为根据各目标负载预测模型对各资源进程的负载数据进行预测,以确定当前请求的目标资源进程,并将当前请求分配给目标资源进程。
在本公开的一些示例性实施例中,基于前述实施例,上述的目标负载预测模型确定模块410中的请求数量参数的值可以通过以下方式确定:
根据各个资源进程的负载预测模型在最近一次更新后到当前时间戳的时间间隔内,各个资源进程被分配的请求确定所述请求数量参数的值。
在本公开的一些示例性实施例中,基于前述实施例,上述的负载预测模型可以包括卡尔曼滤波模型。
在本公开的一些示例性实施例中,基于前述实施例,上述的卡尔曼滤波模型可以通过以下形式确定:
Figure BDA0002726922630000151
其中,A为卡尔曼滤波模型的变换矩阵,n为卡尔曼滤波模型的参数更新次数,an为卡尔曼滤波模型n-1次更新后到当前时间戳的时间间隔内,资源进程被分配的请求数量参数,Xn为卡尔曼滤波模型的状态预测向量,xn为第n次更新时资源进程被分配的请求数量的值,Δxn为相邻两次更新时间间隔内资源进程被分配的请求数量的变化值,H为卡尔曼滤波模型的输出向量,H用于将状态预测向量Xn转换为资源进程的负载预测值Zn,Q为卡尔曼滤波模型的过程噪声协方差矩阵,R为卡尔曼滤波模型的观测噪声协方差矩阵。
在本公开的一些示例性实施例中,基于前述实施例,上述的负载均衡装置还包括请求数量参数更新模块,被配置为:
根据当前请求更新目标资源进程所对应的负载预测模型中的请求数量参数的值。
在本公开的一些示例性实施例中,基于前述实施例,上述的请求数量参数更新模块还被具体配置为:
获取预设的当前请求对目标资源进程的资源占用权重;
根据资源占用权重增加目标资源进程的负载预测模型中的请求数量参数的值,以更新请求数量参数的值。
在本公开的一些示例性实施例中,基于前述实施例,上述的服务器还包括至少一个分配进程,该分配进程用于为请求分配资源进程;
上述的负载均衡装置还包括负载预测模型更新模块,被配置为:
分配进程按照预设时间间隔获取各资源进程的负载数据;
根据负载数据对各资源进程的负载预测模型进行参数更新;
其中,在对各资源进程的负载预测模型进行参数更新时,将各负载预测模型中的请求数量参数的值清零。
在本公开的一些示例性实施例中,基于前述实施例,上述的上述的目标资源进程分配模块420,还被具体配置为:
确定预测的负载数据中最小值所对应的资源进程为目标资源进程。
上述负载均衡装置中各单元的具体细节已经在对应的负载均衡方法中进行了详细的描述,因此此处不再赘述。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。
在本公开示例性实施方式中,还提供了一种能够实现上述方法的计算机存储介质。其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施例中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
参考图5所示,描述了根据本公开的实施方式的用于实现上述方法的程序产品500,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本公开的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,在本公开的示例性实施例中,还提供了一种能够实现上述方法的电子设备。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为***、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“***”。
下面参照图6来描述根据本公开的这种实施方式的电子设备600。图6显示的电子设备600仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图6所示,电子设备600以通用计算设备的形式表现。电子设备600的组件可以包括但不限于:上述至少一个处理单元610、上述至少一个存储单元620、连接不同***组件(包括存储单元620和处理单元610)的总线630以及显示单元640。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元610执行,使得所述处理单元610执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。例如,所述处理单元610可以执行如图1中所示的:步骤S110,响应于客户端的当前请求,获取当前时间戳对应的各资源进程的负载预测模型中的请求数量参数的值,以根据该请求数量参数的值确定各资源进程的目标负载预测模型;步骤S120,根据各目标负载预测模型对各资源进程的负载数据进行预测,以确定当前请求的目标资源进程,并将当前请求分配给目标资源进程。
又如,所述处理单元610可以执行如图2、图3中所述的各个步骤。
存储单元620可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)6201和/或高速缓存存储单元6202,还可以进一步包括只读存储单元(ROM)6203。
存储单元620还可以包括具有一组(至少一个)程序模块6205的程序/实用工具6204,这样的程序模块6205包括但不限于:操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线630可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、***总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备600也可以与一个或多个外部设备700(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备600交互的设备通信,和/或与使得该电子设备600能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口650进行。并且,电子设备600还可以通过网络适配器660与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器660通过总线630与电子设备600的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备600使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
此外,上述附图仅是根据本公开示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。

Claims (10)

1.一种负载均衡方法,其特征在于,应用于服务器,所述服务器包括多个资源进程,各所述资源进程用于处理对所述服务器的请求,所述方法包括:
响应于客户端的当前请求,获取当前时间戳对应的各所述资源进程的负载预测模型中的请求数量参数的值,以根据所述请求数量参数的值确定各所述资源进程的目标负载预测模型;
根据各所述目标负载预测模型对各所述资源进程的负载数据进行预测,以确定所述当前请求的目标资源进程,并将所述当前请求分配给所述目标资源进程;
其中,根据各所述资源进程的负载预测模型在最近一次更新后到所述当前时间戳的时间间隔内,各所述资源进程被分配的请求确定所述请求数量参数的值。
2.根据权利要求1所述的负载均衡方法,其特征在于,所述负载预测模型根据所述资源进程在最近一次更新时被分配的请求数量和在更新时间间隔内所述资源进程被分配的访问请求数量的变化值预测在下一次更新时间间隔内的负载数据;
所述负载预测模型包括卡尔曼滤波模型。
3.根据权利要求2所述的负载均衡方法,其特征在于,所述卡尔曼滤波模型通过以下形式确定:
Figure FDA0002726922620000011
其中,A为所述卡尔曼滤波模型的变换矩阵,n为所述卡尔曼滤波模型的参数更新次数,an为所述卡尔曼滤波模型n-1次更新后到所述当前时间戳的时间间隔内所述资源进程被分配的请求数量参数,xn-1为第n-1次更新时所述资源进程被分配的访问请求数量,Δxn-1为第n-2次到第n-1次的更新时间间隔内所述资源进程被分配的访问请求数量的变化值,Xn为卡尔曼滤波模型的状态预测向量,xn为第n次更新时所述资源进程被分配的请求数量的预测值,Δxn为相邻两次更新时间间隔内所述资源进程被分配的请求数量的变化量的预测值,H为卡尔曼滤波模型的输出向量,H用于将所述状态预测向量Xn转换为所述资源进程的负载预测值Zn,Q为所述卡尔曼滤波模型的过程噪声协方差矩阵,R为所述卡尔曼滤波模型的观测噪声协方差矩阵。
4.根据权利要求1所述的负载均衡方法,其特征在于,将所述当前请求分配给所述目标资源进程后,所述方法还包括:
根据所述当前请求更新所述目标资源进程所对应的负载预测模型中的请求数量参数的值。
5.根据权利要求4所述的负载均衡方法,其特征在于,所述更新所述目标资源进程所对应的负载预测模型中的请求数量参数的值,包括:
获取预设的所述当前请求对所述目标资源进程的资源占用权重;
根据所述资源占用权重增加所述目标资源进程的负载预测模型中的请求数量参数的值,以更新所述请求数量参数的值。
6.根据权利要求1所述的负载均衡方法,其特征在于,所述服务器还包括至少一个分配进程,所述分配进程用于为所述请求分配所述资源进程;
所述负载预测模型的更新通过以下方式实现:
所述分配进程按照预设时间间隔获取各所述资源进程的负载数据;
根据所述负载数据对各所述资源进程的负载预测模型进行参数更新;
其中,在对各所述资源进程的负载预测模型进行参数更新时,将各所述负载预测模型中的请求数量参数的值清零。
7.根据权利要求1所述的负载均衡方法,其特征在于,所述确定所述当前请求的目标资源进程,包括:
确定预测的所述负载数据中最小值所对应的资源进程为所述目标资源进程。
8.一种负载均衡装置,其特征在于,应用于服务器,所述服务器包括多个资源进程,各所述资源进程用于处理对所述服务器的请求,包括:
目标负载预测模型确定模块,被配置为响应于客户端的当前请求,获取当前时间戳对应的各所述资源进程的负载预测模型中的请求数量参数的值,以根据所述请求数量参数的值确定各所述资源进程的目标负载预测模型;
目标资源进程分配模块,被配置为根据各所述目标负载预测模型对各所述资源进程的负载数据进行预测,以确定所述当前请求的目标资源进程,并将所述当前请求分配给所述目标资源进程;
其中,根据各所述资源进程的负载预测模型在最近一次更新后到所述当前时间戳的时间间隔内,各所述资源进程被分配的请求确定所述请求数量参数的值。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1至7中任一项所述的负载均衡方法。
10.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1至7中任一项所述的负载均衡方法。
CN202011105808.8A 2020-10-15 2020-10-15 负载均衡方法及装置、计算机可读存储介质及电子设备 Active CN112181664B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011105808.8A CN112181664B (zh) 2020-10-15 2020-10-15 负载均衡方法及装置、计算机可读存储介质及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011105808.8A CN112181664B (zh) 2020-10-15 2020-10-15 负载均衡方法及装置、计算机可读存储介质及电子设备

Publications (2)

Publication Number Publication Date
CN112181664A true CN112181664A (zh) 2021-01-05
CN112181664B CN112181664B (zh) 2023-07-14

Family

ID=73950550

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011105808.8A Active CN112181664B (zh) 2020-10-15 2020-10-15 负载均衡方法及装置、计算机可读存储介质及电子设备

Country Status (1)

Country Link
CN (1) CN112181664B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113176906A (zh) * 2021-04-25 2021-07-27 京东数字科技控股股份有限公司 模型管理方法、装置、计算机设备和存储介质
CN114510003A (zh) * 2021-12-28 2022-05-17 浙江中控技术股份有限公司 一种工业控制***的控制器负载均衡检测方法
CN115314402A (zh) * 2022-08-10 2022-11-08 中国电信股份有限公司 网元负载监控方法、装置、存储介质和电子设备
CN117311984A (zh) * 2023-11-03 2023-12-29 北京创璞科技有限公司 基于对比服务的服务器负载均衡方法及***

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120173709A1 (en) * 2011-01-05 2012-07-05 Li Li Seamless scaling of enterprise applications
CN104010028A (zh) * 2014-05-04 2014-08-27 华南理工大学 一种云平台下性能加权的虚拟资源动态管理策略方法
CN105631196A (zh) * 2015-12-22 2016-06-01 中国科学院软件研究所 一种面向微服务架构的容器级弹性资源供给***及方法
US20170168729A1 (en) * 2015-12-11 2017-06-15 Netapp, Inc. Methods and systems for managing resources of a networked storage environment
US20170324813A1 (en) * 2016-05-06 2017-11-09 Microsoft Technology Licensing, Llc Cloud storage platform providing performance-based service level agreements
US20170344393A1 (en) * 2016-05-31 2017-11-30 Huawei Technologies Co., Ltd. Virtual machine resource utilization in a data center
CN108228347A (zh) * 2017-12-21 2018-06-29 上海电机学院 一种任务感知的Docker自适应调度***
CN109586971A (zh) * 2018-12-14 2019-04-05 广东外语外贸大学 一种基于线性关系的负载资源需求量评估方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120173709A1 (en) * 2011-01-05 2012-07-05 Li Li Seamless scaling of enterprise applications
CN104010028A (zh) * 2014-05-04 2014-08-27 华南理工大学 一种云平台下性能加权的虚拟资源动态管理策略方法
US20170168729A1 (en) * 2015-12-11 2017-06-15 Netapp, Inc. Methods and systems for managing resources of a networked storage environment
CN105631196A (zh) * 2015-12-22 2016-06-01 中国科学院软件研究所 一种面向微服务架构的容器级弹性资源供给***及方法
US20170324813A1 (en) * 2016-05-06 2017-11-09 Microsoft Technology Licensing, Llc Cloud storage platform providing performance-based service level agreements
US20170344393A1 (en) * 2016-05-31 2017-11-30 Huawei Technologies Co., Ltd. Virtual machine resource utilization in a data center
CN108228347A (zh) * 2017-12-21 2018-06-29 上海电机学院 一种任务感知的Docker自适应调度***
CN109586971A (zh) * 2018-12-14 2019-04-05 广东外语外贸大学 一种基于线性关系的负载资源需求量评估方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
刘军搏;孙岩;王大鸣;崔唯嘉;: "一种基于Kalman的实时话务量预测算法", 通信技术 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113176906A (zh) * 2021-04-25 2021-07-27 京东数字科技控股股份有限公司 模型管理方法、装置、计算机设备和存储介质
CN113176906B (zh) * 2021-04-25 2024-05-17 京东科技控股股份有限公司 模型管理方法、装置、计算机设备和存储介质
CN114510003A (zh) * 2021-12-28 2022-05-17 浙江中控技术股份有限公司 一种工业控制***的控制器负载均衡检测方法
CN115314402A (zh) * 2022-08-10 2022-11-08 中国电信股份有限公司 网元负载监控方法、装置、存储介质和电子设备
CN117311984A (zh) * 2023-11-03 2023-12-29 北京创璞科技有限公司 基于对比服务的服务器负载均衡方法及***
CN117311984B (zh) * 2023-11-03 2024-03-29 北京创璞科技有限公司 基于对比服务的服务器负载均衡方法及***

Also Published As

Publication number Publication date
CN112181664B (zh) 2023-07-14

Similar Documents

Publication Publication Date Title
CN112181664B (zh) 负载均衡方法及装置、计算机可读存储介质及电子设备
CN107885762B (zh) 智能大数据***、提供智能大数据服务的方法和设备
CN108089921B (zh) 用于云端大数据运算架构的服务器及其运算资源最佳化方法
US10536392B2 (en) Monitoring data streams and scaling computing resources based on the data streams
Nguyen et al. {AGILE}: elastic distributed resource scaling for {infrastructure-as-a-service}
US11188392B2 (en) Scheduling system for computational work on heterogeneous hardware
US9081618B2 (en) Method and apparatus for the scheduling of computing tasks
CN106959894B (zh) 资源分配方法和装置
EP1750200A2 (en) System and method for executing job step, and computer product
CN110753131A (zh) 微服务分布式限流方法及装置、存储介质和电子设备
CN111026553B (zh) 离线混部作业的资源调度方法及服务器***
KR101882383B1 (ko) 데스크톱 가상화 환경에서의 컨테이너 자원할당 장치 및 방법
US9547520B1 (en) Virtual machine load balancing
CN108205469B (zh) 一种基于MapReduce的资源分配方法及服务器
CN112162891B (zh) 服务器集群中的性能测试方法及相关设备
WO2021130596A1 (en) Elastic execution of machine learning workloads using application based profiling
CN114020469A (zh) 基于边缘节点的多任务学习方法、装置、介质与设备
CN113485833A (zh) 资源预测方法和装置
CN114564313A (zh) 负载调整方法、装置、电子设备及存储介质
CN114785693B (zh) 基于分层强化学习的虚拟网络功能迁移方法及装置
CN115437794A (zh) I/o请求调度方法、装置、电子设备及存储介质
JP2019082819A (ja) アクセラレータ部の利用に対する課金を支援するシステム及び方法
CN110247802B (zh) 针对云服务单机环境的资源配置方法及装置
JP2018136681A (ja) 性能管理プログラム、性能管理方法、および管理装置
CN115079929A (zh) 路径调度方法及装置、存储介质和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant