CN107479976A - 一种多程序实例同时运行下cpu资源分配方法及装置 - Google Patents
一种多程序实例同时运行下cpu资源分配方法及装置 Download PDFInfo
- Publication number
- CN107479976A CN107479976A CN201710692515.6A CN201710692515A CN107479976A CN 107479976 A CN107479976 A CN 107479976A CN 201710692515 A CN201710692515 A CN 201710692515A CN 107479976 A CN107479976 A CN 107479976A
- Authority
- CN
- China
- Prior art keywords
- core cpu
- cpu
- allocated
- core
- use information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/505—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/5018—Thread allocation
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multi Processors (AREA)
Abstract
本发明公开了一种多程序实例同时运行下CPU资源分配方法,该方法通过获取CPU核心使用信息;根据CPU核心使用信息和待分配实例所需启动线程的数量,从空闲CPU核心中选取出数量个CPU核心,分配给待分配实例,并将已分配的CPU核心标注为已使用;利用CPU亲和性函数,将待分配实例的多个线程绑定到所分配的CPU核心。该方法通过根据CPU核心使用信息,为实例分配所需的处于空闲状态的CPU核心,并将多个线程绑定至所分配的CPU核心,这样可以避免多个线程间相互竞争CPU资源,从而使多个实例性能最优化。此外,本发明还公开了一种多程序实例同时运行下CPU资源分配装置,与上述方法有一一对应优点。
Description
技术领域
本发明涉及CPU技术领域,特别涉及一种多程序实例同时运行下CPU资源分配方法及装置。
背景技术
目前,经常会有多个人公用一个工作站或服务器进行科学计算、数据处理等的情况。
而对于大型的计算或数据处理程序,尤其是当每个实例都会使用多线程时,各个线程在哪个CPU核心上执行依赖于操作***的调度***。一般地,随机选择空闲的CPU核心调度执行,并且会随着***运行的情况,不断切换调度的核心。这种会由于经常切换CPU执行,会导致CPU Cache命中率较低。即每个实例都期望自己独占CPU资源,多个实例直接相互竞争资源,导致性能急剧下降的。
因此,如何合理分配多程序实例同时运行下的CPU资源,以达到既不会浪费,又不会相互之间发生冲突的目的是本领域需要解决的问题。
发明内容
本发明的目的是提供一种多程序实例同时运行下CPU资源分配方法及装置,目的在于解决现有多程序实例同时运行下CPU资源分配不合理导致性能低下的问题。
为解决上述技术问题,本发明提供一种多程序实例同时运行下CPU资源分配方法,该方法包括:
获取CPU核心使用信息;
根据所述CPU核心使用信息和待分配实例所需启动线程的数量,从空闲CPU核心中选取出所述数量个CPU核心,分配给所述待分配实例,并将已分配的CPU核心标注为已使用;
利用CPU亲和性函数,将所述待分配实例的多个线程绑定到所分配的所述CPU核心。
可选地,所述根据所述CPU核心使用信息和待分配实例所需启动的线程数,从空闲CPU核心中选取出所述数量个CPU核心,分配给所述待分配实例包括:
当***为NUMA***时,根据所述CPU核心使用信息和所述待分配实例所需启动线程的所述数量,从所述空闲CPU核心中选取出位于同一NUMA节点的所述数量个CPU核心,分配给所述待分配实例。
可选地,还包括:
当所述待分配实例停止运行时,释放分配给所述待分配实例的所述数量个CPU核心,并修改所释放的CPU核心使用信息。
可选地,所述获取CPU核心使用信息包括:
获取***共享内存内的CPU核心总数信息及CPU核心占用信息。
此外,本发明还提供了一种多程序实例同时运行下CPU资源分配装置,该装置包括:
获取模块,用于获取CPU核心使用信息;
分配模块,用于根据所述CPU核心使用信息和待分配实例所需启动线程的数量,从空闲CPU核心中选取出所述数量个CPU核心,分配给所述待分配实例,并将已分配的CPU核心标注为已使用;
绑定模块,用于利用CPU亲和性函数,将所述待分配实例的多个线程绑定到所分配的所述CPU核心。
可选地,所述分配模块包括:
分配单元,用于当***为NUMA***时,根据所述CPU核心使用信息和所述待分配实例所需启动线程的所述数量,从所述空闲CPU核心中选取出位于同一NUMA节点的所述数量个CPU核心,分配给所述待分配实例。
可选地,还包括:
释放模块,用于当所述待分配实例停止运行时,释放分配给所述待分配实例的所述数量个CPU核心,并修改所释放的CPU核心使用信息。
可选地,所述获取模块包括:
获取单元,用于获取***共享内存内的CPU核心总数信息及CPU核心占用信息。
本发明所提供的多程序实例同时运行下CPU资源分配方法及装置,通过获取CPU核心使用信息;根据CPU核心使用信息和待分配实例所需启动线程的数量,从空闲CPU核心中选取出数量个CPU核心,分配给待分配实例,并将已分配的CPU核心标注为已使用;利用CPU亲和性函数,将待分配实例的多个线程绑定到所分配的CPU核心。本申请通过根据CPU核心使用信息,为实例分配所需的处于空闲状态的CPU核心,并将多个线程绑定至所分配的CPU核心,这样可以避免多个线程间相互竞争CPU资源,从而使多个实例性能最优化。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例提供的多程序实例同时运行下CPU资源分配方法的一种具体实施方式的流程示意图;
图2为本发明实施例提供的多程序实例同时运行下CPU资源分配装置的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参考图1,图1为本发明实施例提供的多程序实例同时运行下CPU资源分配方法的一种具体实施方式的流程示意图,该方法包括以下步骤:
步骤101:获取CPU核心使用信息。
可以理解,上述CPU核心使用信息可以为***内各个CPU核心的总数量,以及各个CPU核心是否被占用的信息。该CPU核心使用信息可以存储在***的共享内存内。这样在实例运行时,会从***共享内存读取相应的CPU核心使用信息。且该CPU核心使用信息会随着***的运行,不断地进行标注更新,例如,当CPU核心被占用时将内存中的标注位标为已使用,相反,标为未使用,以记录***内的CPU核心实时使用信息。
也就是说,本步骤可以例如为:获取***共享内存内的CPU核心总数信息及CPU核心占用信息。具体地,可以通过数据结构获取***的CPU资源及其使用信息。
当第一个实例启动时,会初始化一块共享内存,并可以通过数据结构来获取***当前CPU资源和使用情况,保存在此块共享内存内。此后,各个实例启动时,会从共享内存中获取相应信息。
步骤102:根据CPU核心使用信息和待分配实例所需启动线程的数量,从空闲CPU核心中选取出数量个CPU核心,分配给待分配实例,并将已分配的CPU核心标注为已使用。
具体地,根据CPU核心使用信息可以确定各个CPU核心是否被占用,以及当前被占用的CPU核心个数,处于空闲状态下的CPU核心。而根据待分配实例所需启动线程的数量可以确定为该待分配实例分配多少个CPU核心,例如,当所需启动的线程为n个,则分配n个CPU核心给该待分配实例。并修改所分配的CPU核心的使用信息,标注为已使用。
当***为NUMA***时,由于NUMA***如果经常访问其它NUMA节点上的内存时,性能会下降得很明显。故为实例分配空闲CPU核心时,应优先选取同一NUMA节点上的CPU核心进行分配。
也就是说,本步骤可以例如为:当***为NUMA***时,根据CPU核心使用信息和待分配实例所需启动线程的数量,从空闲CPU核心中选取出位于同一NUMA节点的数量个CPU核心,分配给待分配实例。
当然,优先选取为同一待分配实例分配同一个NUMA节点上的CPU核心,可以保证多个实例的性能。但是,如果某一个NUMA节点上空闲CPU核心不能满足待分配实例的需求时,可以为其分配不同NUMA节点上的空闲CPU核心,也能实现本实施例的目的。
步骤103:利用CPU亲和性函数,将待分配实例的多个线程绑定到所分配的CPU核心。
可以理解,上述CPU亲和性函数指的是CPU Affinity函数,通过该函数将线程绑定至相应的CPU核心的过程为本领域人员所熟知,在此不作赘述。且每一个线程绑定一个CPU核心。
当实例停止运行或因发生错误退出时,为保证CPU资源的合理利用,需要释放该实例相应的CPU资源,并修改释放的CPU核心的使用信息。
故作为一种具体实施方式,上述方法还可以包括:当待分配实例停止运行时,释放分配给待分配实例的数量个CPU核心,并修改所释放的CPU核心使用信息。即当进程正常退出时,释放相应CPU核心,并将这些所释放的CPU核心标记改为未使用;而当进程为异常退出时,捕获异常信息,例如SIGSEGV、SIGINT等,同样也会释放相应的CPU核心,修改CPU核心使用信息。
本实施例所提供的多程序实例同时运行下CPU资源分配方法,通过获取CPU核心使用信息;根据CPU核心使用信息和待分配实例所需启动线程的数量,从空闲CPU核心中选取出数量个CPU核心,分配给待分配实例,并将已分配的CPU核心标注为已使用;利用CPU亲和性函数,将待分配实例的多个线程绑定到所分配的CPU核心。该方法通过根据CPU核心使用信息,为实例分配所需的处于空闲状态的CPU核心,并将多个线程绑定至所分配的CPU核心,这样可以避免多个线程间相互竞争CPU资源,从而使多个实例性能最优化。
下面对本发明实施例提供的多程序实例同时运行下CPU资源分配装置进行介绍,下文描述的多程序实例同时运行下CPU资源分配装置与上文描述的多程序实例同时运行下CPU资源分配方法可相互对应参照。
请参考图2,图2为本发明实施例提供的多程序实例同时运行下CPU资源分配装置的结构示意图,该装置包括:
获取模块21,用于获取CPU核心使用信息;
分配模块22,用于根据CPU核心使用信息和待分配实例所需启动线程的数量,从空闲CPU核心中选取出数量个CPU核心,分配给待分配实例,并将已分配的CPU核心标注为已使用;
绑定模块23,用于利用CPU亲和性函数,将待分配实例的多个线程绑定到所分配的CPU核心。
可选地,分配模块包括:
分配单元,用于当***为NUMA***时,根据CPU核心使用信息和待分配实例所需启动线程的数量,从空闲CPU核心中选取出位于同一NUMA节点的数量个CPU核心,分配给待分配实例。
可选地,还包括:
释放模块,用于当待分配实例停止运行时,释放分配给待分配实例的数量个CPU核心,并修改所释放的CPU核心使用信息。
可选地,获取模块包括:
获取单元,用于获取***共享内存内的CPU核心总数信息及CPU核心占用信息。
本实施例所提供的多程序实例同时运行下CPU资源分配装置,通过根据CPU核心使用信息,为实例分配所需的处于空闲状态的CPU核心,并将多个线程绑定至所分配的CPU核心,这样可以避免多个线程间相互竞争CPU资源,从而使多个实例性能最优化。
说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上对本发明所提供的多程序实例同时运行下CPU资源分配方法及装置进行了详细介绍。本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
Claims (8)
1.一种多程序实例同时运行下CPU资源分配方法,其特征在于,包括:
获取CPU核心使用信息;
根据所述CPU核心使用信息和待分配实例所需启动线程的数量,从空闲CPU核心中选取出所述数量个CPU核心,分配给所述待分配实例,并将已分配的CPU核心标注为已使用;
利用CPU亲和性函数,将所述待分配实例的多个线程绑定到所分配的所述CPU核心。
2.如权利要求1所述的多程序实例同时运行下CPU资源分配方法,其特征在于,所述根据所述CPU核心使用信息和待分配实例所需启动的线程数,从空闲CPU核心中选取出所述数量个CPU核心,分配给所述待分配实例包括:
当***为NUMA***时,根据所述CPU核心使用信息和所述待分配实例所需启动线程的所述数量,从所述空闲CPU核心中选取出位于同一NUMA节点的所述数量个CPU核心,分配给所述待分配实例。
3.如权利要求1或2所述的多程序实例同时运行下CPU资源分配方法,其特征在于,还包括:
当所述待分配实例停止运行时,释放分配给所述待分配实例的所述数量个CPU核心,并修改所释放的CPU核心使用信息。
4.如权利要求3所述的多程序实例同时运行下CPU资源分配方法,其特征在于,所述获取CPU核心使用信息包括:
获取***共享内存内的CPU核心总数信息及CPU核心占用信息。
5.一种多程序实例同时运行下CPU资源分配装置,其特征在于,包括:
获取模块,用于获取CPU核心使用信息;
分配模块,用于根据所述CPU核心使用信息和待分配实例所需启动线程的数量,从空闲CPU核心中选取出所述数量个CPU核心,分配给所述待分配实例,并将已分配的CPU核心标注为已使用;
绑定模块,用于利用CPU亲和性函数,将所述待分配实例的多个线程绑定到所分配的所述CPU核心。
6.如权利要求5所述的多程序实例同时运行下CPU资源分配装置,其特征在于,所述分配模块包括:
分配单元,用于当***为NUMA***时,根据所述CPU核心使用信息和所述待分配实例所需启动线程的所述数量,从所述空闲CPU核心中选取出位于同一NUMA节点的所述数量个CPU核心,分配给所述待分配实例。
7.如权利要求5或6所述的多程序实例同时运行下CPU资源分配装置,其特征在于,还包括:
释放模块,用于当所述待分配实例停止运行时,释放分配给所述待分配实例的所述数量个CPU核心,并修改所释放的CPU核心使用信息。
8.如权利要求7所述的多程序实例同时运行下CPU资源分配装置,其特征在于,所述获取模块包括:
获取单元,用于获取***共享内存内的CPU核心总数信息及CPU核心占用信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710692515.6A CN107479976A (zh) | 2017-08-14 | 2017-08-14 | 一种多程序实例同时运行下cpu资源分配方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710692515.6A CN107479976A (zh) | 2017-08-14 | 2017-08-14 | 一种多程序实例同时运行下cpu资源分配方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107479976A true CN107479976A (zh) | 2017-12-15 |
Family
ID=60600374
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710692515.6A Pending CN107479976A (zh) | 2017-08-14 | 2017-08-14 | 一种多程序实例同时运行下cpu资源分配方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107479976A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108073459A (zh) * | 2018-01-02 | 2018-05-25 | 联想(北京)有限公司 | 一种电子设备的cpu的管理方法及装置 |
CN108803509A (zh) * | 2018-05-31 | 2018-11-13 | 广东盛哲科技有限公司 | 一种多类型cpu兼容工业控制器*** |
CN110362402A (zh) * | 2019-06-25 | 2019-10-22 | 苏州浪潮智能科技有限公司 | 一种负载均衡方法、装置、设备及可读存储介质 |
CN110888947A (zh) * | 2018-09-10 | 2020-03-17 | 北京嘀嘀无限科技发展有限公司 | 服务请求处理方法和*** |
CN111176831A (zh) * | 2019-12-05 | 2020-05-19 | 西安交通大学 | 基于多线程共享内存通信的动态线程映射优化方法及装置 |
CN112069003A (zh) * | 2020-08-21 | 2020-12-11 | 苏州浪潮智能科技有限公司 | 一种硬盘性能测试方法和装置 |
CN112463027A (zh) * | 2020-10-29 | 2021-03-09 | 苏州浪潮智能科技有限公司 | 一种i/o处理方法、***、设备及计算机可读存储介质 |
CN113672373A (zh) * | 2021-08-30 | 2021-11-19 | 浙江大华技术股份有限公司 | 一种线程绑定的方法、装置及电子设备 |
WO2023020010A1 (zh) * | 2021-08-16 | 2023-02-23 | 华为技术有限公司 | 一种运行进程的方法及相关设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1582428A (zh) * | 2001-11-07 | 2005-02-16 | 国际商业机器公司 | 用于在非均衡存储器存取计算机***中调度任务的方法和设备 |
CN103365718A (zh) * | 2013-06-28 | 2013-10-23 | 贵阳朗玛信息技术股份有限公司 | 一种线程调度方法、线程调度装置及多核处理器*** |
CN104375899A (zh) * | 2014-11-21 | 2015-02-25 | 北京应用物理与计算数学研究所 | 高性能计算机numa感知的线程和内存资源优化方法与*** |
CN104460934A (zh) * | 2013-09-13 | 2015-03-25 | 华为终端有限公司 | 多cpu调度方法及装置 |
CN105988872A (zh) * | 2015-02-03 | 2016-10-05 | 阿里巴巴集团控股有限公司 | 一种cpu资源分配的方法、装置及电子设备 |
CN106371894A (zh) * | 2016-08-31 | 2017-02-01 | 华为技术有限公司 | 一种配置方法、装置和数据处理服务器 |
-
2017
- 2017-08-14 CN CN201710692515.6A patent/CN107479976A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1582428A (zh) * | 2001-11-07 | 2005-02-16 | 国际商业机器公司 | 用于在非均衡存储器存取计算机***中调度任务的方法和设备 |
CN103365718A (zh) * | 2013-06-28 | 2013-10-23 | 贵阳朗玛信息技术股份有限公司 | 一种线程调度方法、线程调度装置及多核处理器*** |
CN104460934A (zh) * | 2013-09-13 | 2015-03-25 | 华为终端有限公司 | 多cpu调度方法及装置 |
CN104375899A (zh) * | 2014-11-21 | 2015-02-25 | 北京应用物理与计算数学研究所 | 高性能计算机numa感知的线程和内存资源优化方法与*** |
CN105988872A (zh) * | 2015-02-03 | 2016-10-05 | 阿里巴巴集团控股有限公司 | 一种cpu资源分配的方法、装置及电子设备 |
CN106371894A (zh) * | 2016-08-31 | 2017-02-01 | 华为技术有限公司 | 一种配置方法、装置和数据处理服务器 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108073459A (zh) * | 2018-01-02 | 2018-05-25 | 联想(北京)有限公司 | 一种电子设备的cpu的管理方法及装置 |
CN108803509A (zh) * | 2018-05-31 | 2018-11-13 | 广东盛哲科技有限公司 | 一种多类型cpu兼容工业控制器*** |
CN110888947A (zh) * | 2018-09-10 | 2020-03-17 | 北京嘀嘀无限科技发展有限公司 | 服务请求处理方法和*** |
CN110362402B (zh) * | 2019-06-25 | 2021-08-10 | 苏州浪潮智能科技有限公司 | 一种负载均衡方法、装置、设备及可读存储介质 |
CN110362402A (zh) * | 2019-06-25 | 2019-10-22 | 苏州浪潮智能科技有限公司 | 一种负载均衡方法、装置、设备及可读存储介质 |
CN111176831A (zh) * | 2019-12-05 | 2020-05-19 | 西安交通大学 | 基于多线程共享内存通信的动态线程映射优化方法及装置 |
CN111176831B (zh) * | 2019-12-05 | 2023-05-02 | 西安交通大学 | 基于多线程共享内存通信的动态线程映射优化方法及装置 |
CN112069003B (zh) * | 2020-08-21 | 2022-08-02 | 苏州浪潮智能科技有限公司 | 一种硬盘性能测试方法和装置 |
CN112069003A (zh) * | 2020-08-21 | 2020-12-11 | 苏州浪潮智能科技有限公司 | 一种硬盘性能测试方法和装置 |
CN112463027A (zh) * | 2020-10-29 | 2021-03-09 | 苏州浪潮智能科技有限公司 | 一种i/o处理方法、***、设备及计算机可读存储介质 |
CN112463027B (zh) * | 2020-10-29 | 2022-08-12 | 苏州浪潮智能科技有限公司 | 一种i/o处理方法、***、设备及计算机可读存储介质 |
WO2023020010A1 (zh) * | 2021-08-16 | 2023-02-23 | 华为技术有限公司 | 一种运行进程的方法及相关设备 |
CN113672373A (zh) * | 2021-08-30 | 2021-11-19 | 浙江大华技术股份有限公司 | 一种线程绑定的方法、装置及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107479976A (zh) | 一种多程序实例同时运行下cpu资源分配方法及装置 | |
CN104915151B (zh) | 多虚拟机***中一种主动共享的内存超量分配方法 | |
US8141096B1 (en) | System, method, and computer program product for group scheduling of computer resources | |
CN103838859B (zh) | 一种减少linux下多进程间数据拷贝的方法 | |
CN106168885B (zh) | 一种基于lvm的逻辑卷动态扩容的方法及*** | |
JP5510556B2 (ja) | 仮想マシンのストレージスペースおよび物理ホストを管理するための方法およびシステム | |
CN1577260B (zh) | 跨线程寄存器共享技术 | |
EP2985702A1 (en) | Data processing method and device, and computer system | |
US20080229321A1 (en) | Quality of service scheduling for simultaneous multi-threaded processors | |
JP2006099763A5 (zh) | ||
CN103577345A (zh) | 提高由多个***共享的存储高速缓存灵活性的方法和结构 | |
CN105357042B (zh) | 一种高可用集群***及其主节点和从节点 | |
JP2008146566A5 (zh) | ||
CN103827842A (zh) | 向控制器存储器空间写入消息 | |
CN109471725A (zh) | 资源分配方法、装置和服务器 | |
CN108170520A (zh) | 一种云计算资源管理方法及装置 | |
CN103218305B (zh) | 存储空间的分配方法 | |
CN106663051A (zh) | 虚拟化计算中的存储器管理 | |
CN110727517A (zh) | 一种基于分区设计的内存分配方法和装置 | |
KR20130068685A (ko) | 하이브리드 주메모리 시스템 및 이를 위한 태스크 스케줄링 방법 | |
CN109976907A (zh) | 任务分配方法和***、电子设备、计算机可读介质 | |
US20090183166A1 (en) | Algorithm to share physical processors to maximize processor cache usage and topologies | |
CN111104219A (zh) | 虚拟核心与物理核心的绑定方法、装置、设备及存储介质 | |
JP2005196793A5 (zh) | ||
CN112540934B (zh) | 保证多个延迟关键程序共同执行时服务质量的方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20171215 |