CN108897618B - 一种异构内存架构下基于任务感知的资源分配方法 - Google Patents
一种异构内存架构下基于任务感知的资源分配方法 Download PDFInfo
- Publication number
- CN108897618B CN108897618B CN201810632230.8A CN201810632230A CN108897618B CN 108897618 B CN108897618 B CN 108897618B CN 201810632230 A CN201810632230 A CN 201810632230A CN 108897618 B CN108897618 B CN 108897618B
- Authority
- CN
- China
- Prior art keywords
- task
- memory
- nodes
- node
- migration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5011—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
- G06F9/5016—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5083—Techniques for rebalancing the load in a distributed system
- G06F9/5088—Techniques for rebalancing the load in a distributed system involving task migration
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Memory System Of A Hierarchy Structure (AREA)
Abstract
本发明公开了一种异构内存架构下基于任务感知的资源分配方法,特征是包括进程性能元数据记录、节点任务分配记录、任务特性感知的调度策略和页面感知的迁移策略步骤。由于对不同的任务进行了区分,使每个NUMA节点内的任务分配相对均匀,与***默认的任务分配策略相比,缓解了***CPU的cache争用与内存访问竞争;同时由于对任务不同读写特性的页面进行区分,在异构内存架构下采用适应性的放置策略,减少了NVM内存的写操作次数,延长了NVM的使用寿命;采用本发明方法由于大部分写操作都发生在DRAM中,所以尽可能减少了性能损失。
Description
技术领域
本发明属于计算机内存管理技术领域,具体涉及在广泛使用的非统一内存访问(NUMA)架构服务器中,应用新型非易失性存储器(NVM)与传统动态随机存储器(DRAM)构建异构内存,并在此基础上通过任务特性感知,实现高效的任务资源分配的方法。
背景技术
1999年9月,IBM公司将NUMA技术集成到IBMUnix中。NUMA的突破性技术彻底摆脱了传统的超大总线对多处理结构的束缚。它大大增强单一操作***可管理的处理器、内存和I/O插槽。由于面对目前的大数据场景,越来越多的应用由传统的计算密集型应用,转变为数据密集应用,为了满足应用更大的内存需求,逐渐提出异构内存架构。因此,未来新型的NUMA异构内存架构将表现出高度的非一致性:应用种类复杂性、存储介质读写速度不对称性、以及NUMA固有的访问非一致性。传统的NUMA技术无法区分不同内存介质的特性,对于不同种类的应用无法区分对待获得最优运行性能,对于不同存储介质无法针对性页面放置获得最优存储性能,导致***实际性能与理论最优性能相差甚远。
发明内容
本发明的目的是提出一种异构内存架构下基于任务感知的资源分配方法,一方面,针对不同类型的应用,采用适应性的CPU与内存分配;另一方面,针对不同特性的应用访问页面,采用不同的页面放置策略,以解决现有NUMA管理技术应用于异构内存时的缺陷,在保证低软件开销的情况下,实现多任务的高效分配,以及异构内存的高效使用。
本发明异构内存架构下基于任务感知的资源分配方法,其特征在于包括以下步骤:
第一步:进程性能元数据记录
针对所有优化的任务进程,通过硬件性能计数器获取进程每秒的内存写请求数WAPS(Write Accesses per Second)和进程的内存总占用量MF(Memory footprint)这两个性能参数,由此计算出任务分类标准TC(Task classification)=WAPS*MF,其中,WAPS单位设置为million,MF单位设置为GB;依据TC值,将任务分成两大类:当TC<1时,为计算密集型应用;当TC>1时,为数据密集型应用;
第二步:节点任务分配记录
依据每一个进程的CPU占用、内存分配以及性能元数据记录,为NUMA架构中每一个节点创建一个任务进程记录表,记录节点内相关进程的元数据;同时为每个节点创建一个资源分配记录表,记录节点内的CPU core占用情况,以及节点空闲内存的容量;
第三步:任务特性感知的调度策略
基于***默认的任务资源分配方式,根据每个节点的任务分配记录,周期性完成节点间的任务迁移调整,以使不同类型的应用在所有节点分配均匀;
首先遍历NUMA所有节点的分配记录表,找出运行最多计算密集型应用即TC<1的节点Node1,以及运行最多数据密集型应用即TC>1)的节点Node2;分别记录两节点中的计算密集型任务数为:computing_task_NUM;数据密集型任务数为:data_task_NUM;
对于两节点分别计算:如果computing_task_NUM减去data_task_NUM的绝对值大于1,即说明Node1与Node2节点的任务放置均不够均匀;若两节点空闲内存能够支持任务迁移,就将Node1中一个计算密集型应用迁移至Node2,同时将Node2中一个数据密集型应用迁移至Node1;而若两节点空闲内存不支持任务迁移,则不做任务迁移操作;
对于两节点分别计算:如果computing_task_NUM减去data_task_NUM的绝对值小于等于1,即说明Node1与Node2节点的任务放置已经完全均匀,进而说明所有节点的不同类型应用均已分配均匀,则无需进行任务迁移调整;
第四步:任务页面感知的迁移策略
如果应用的内存占用量仍在增长,说明任务仍处于初始内存分配阶段,则不进行页面迁移;
如果应用的内存占用量相对稳定,说明任务处于计算运行阶段,则启用页面迁移,具体分为两部分:(1)将DRAM中最近没有发生写操作的页面集合迁移到NVM中;(2)将NVM中最近发生过写操作的页面集合迁移到DRAM中。
上述本发明的异构内存架构下基于任务感知的资源分配方法,主要进行了以下操作步骤:进程性能元数据记录、节点任务分配记录、任务特性感知的调度策略和页面感知的迁移策略。由于对不同的任务进行了区分,使每个NUMA节点内的任务分配相对均匀,与***默认的任务分配策略相比,缓解了***CPU的cache争用与内存访问竞争;同时由于对任务不同读写特性的页面进行区分,在异构内存架构下采用适应性的放置策略,减少了NVM内存的写操作次数,延长了NVM的使用寿命;由于大部分写操作都发生在DRAM中,所以尽可能减少了性能损失。
附图说明
图1是本发明异构内存架构下基于任务感知的资源分配方法的实施操作流程示意图。
图2为两节点NUMA架构下应用默认分配方式示意图。
图3表示特性感知调整后的任务放置示意图。
图4表示应用初始分配后内存占用示意图。
图5表示页面感知迁移后内存占用示意图。
具体实施方式
下面结合附图通过具体实施例对本发明异构内存架构下基于任务感知的资源分配方法作进一步的详细说明。
实施例1:
本实施例异构内存架构下基于任务感知的资源分配方法,是将4个计算密集型应用(A1、A2、A3、A4)与4个数据密集型应用(B1、B2、B3、B4)分配运行到两个节点的NUMA异构内存架构中。每个节点有4个core,4GB DRAM内存与12GB NVM内存。应用初始分配采用***默认分配方式,周期性采用本发明任务感知策略进行调整。附图1给出了本实施例NUMA异构内存架构下基于任务感知的资源分配方法的操作流程示意图,包括周期性任务特性感知的调度策略与周期性任务页面感知的迁移策略两大部分。
本实施例异构内存架构下基于任务感知的资源分配方法,具体包括以下步骤:
第一步:进程性能元数据记录
针对所有优化的任务进程,通过硬件性能计数器获取进程每秒的内存写请求数WAPS(Write Accesses per Second)和进程的内存总占用量MF(Memory footprint)这两个性能参数(参见图1中的流程操作框①),由此计算出任务分类标准TC(Taskclassification)=WAPS*MF,其中,WAPS单位设置为million,MF单位设置为GB;依据TC值,将任务分成两大类:当TC<1时,为计算密集型应用;当TC>1时,为数据密集型应用。
附图2给出了本实施例中采取的8个应用在***默认分配方式下的分布结果。虚线框代表NUMA Node节点,一个实线方块代表一个应用,灰色方块代表计算密集型应用,白色方块代表数据密集型应用。计算密集型应用特点是:访问数据量较少,访问数据局部性较强,任务主要瓶颈为CPU计算。数据密集型应用特点是:访问数据量较多,访问数据局部性较差,任务主要瓶颈为内存访问。如图2中所示,在Node1中分配了3个计算密集型应用(A1、A2、A3)与1个数据密集型应用(B1),在Node2中分配了1个计算密集型应用(A4)与3个数据密集型应用(B2、B3、B4)。每个应用的性能元数据根据硬件性能计数器分别采样统计,每秒的内存写请求数WAPS与内存总占用量MF如图中所示。计算每个应用的TC值,作为***任务感知的标准。对于计算密集型应用A1、A2、A3、A4,TC值分别为:0.0005、0.002、0.0075、0.0005。对于数据密集型应用B1、B2、B3、B4,TC值分别为:2.5、1.8、2.5、2.5。在本发明中,设定TC=1为区分计算密集型应用与数据密集型应用的阈值。
第二步:节点任务分配记录
依据每一个进程的CPU占用、内存分配以及性能元数据记录,为NUMA架构中每一个节点创建一个任务进程记录表,记录节点内相关进程的元数据;同时为每个节点创建一个资源分配记录表,记录节点内的CPU core占用情况,以及节点空闲内存的容量(参见图1中的流程操作框②)。
本实施例中,周期性遍历所有进程元数据记录,更新每个NUMA节点的任务进程记录表。在***默认分配方式下,Node1中计算密集型应用数量为3,数据密集型应用数量为1;Node2中计算密集型应用数量为1,数据密集型应用数量为3。
同时根据***资源占用情况,更新节点的资源分配记录表。由于Node1中4个应用的内存占用量MF分别为:0.5、1.0、1.5、5.0,所以剩余空闲内存为8GB,空闲core为0。由于Node2中4个应用的内存占用量MF分别为:0.5、4.0、5.0、5.0,所以剩余空闲内存为1.5GB,空闲core为0。
第三步:任务特性感知的调度策略
基于***默认的任务资源分配方式,根据每个节点的任务分配记录,周期性完成节点间的任务迁移调整,以使不同类型的应用在所有节点分配均匀;
首先遍历NUMA所有节点的分配记录表,找出运行最多计算密集型应用即TC<1的节点Node1,以及运行最多数据密集型应用即TC>1的节点Node2;分别记录每个节点的计算密集型任务数:computing_task_NUM;以及数据密集型任务数:data_task_NUM;
对于两节点分别计算:如果computing_task_NUM减去data_task_NUM的绝对值大于1,即说明Node1与Node2节点的任务放置均不够均匀;若两节点空闲内存能够支持任务迁移,就将Node1中一个计算密集型应用迁移至Node2,同时将Node2中一个数据密集型应用迁移至Node1;而若两节点空闲内存不支持任务迁移,则不做任务迁移操作;
对于两节点分别计算:如果computing_task_NUM减去data_task_NUM的绝对值小于等于1,即说明Node1与Node2节点的任务放置已经完全均匀,进而说明所有节点的不同类型应用均已分配均匀,则无需进行任务迁移调整。
目前现有***中默认的任务资源分配策略是依据任务的到达时间,将任务以轮转方式平均分配到不同的节点,并尽量保证任务分配的CPU与内存在同一节点。这样的方式是有局限性的,没有考虑到达任务的特性,不能做出适应性的调整。任务特性感知的调度策略,基于***默认的任务资源分配方式,根据每个节点的任务分配记录,周期性完成节点间的任务迁移调整,保证不同类型的应用在所有节点分配均匀。
本实施例中,首先遍历所有节点的任务进程记录表,比较可得:Node1为运行最多计算密集型应用(TC<1)的节点,Node2为运行最多数据密集型应用(TC>1)的节点。Node1的computing_task_NUM=3,data_task_NUM=1。Node2的computing_task_NUM=1,data_task_NUM=3。所以在这次调整中两节点均满足|computing_task_NUM-data_task_NUM|>1(参见图1框③),说明Node1与Node2节点的任务放置不够均匀。选出准备调度的计算密集型应用与数据密集型应用(参见图1框④),查看节点的资源分配记录表,是否有足够的空闲内存支持两节点间任务迁移调整(参见图1框⑤):由于Node1中最小内存占用的计算密集型应用A1占用0.5GB内存,小于Node2剩余空闲内存1.5GB。同时,Node2中最小内存占用的数据密集型应用B2占用4GB内存,小于Node1剩余空闲内存8GB。所以空闲内存足够完成任务迁移,将任务A1由Node1迁移至Node2,任务B2由Node1迁移至Node2。附图3展示了调整结束后任务放置示意图。
周期性再次遍历所有节点的任务进程记录表,比较可得:Node1与Node2中,计算密集型应用与数据密集型应用个数均相等。computing_task_NUM=2,data_task_NUM=2。在这次调整中不满足|computing_task_NUM-data_task_NUM|>1(参见图1框③),说明Node1与Node2节点的任务放置已经完全均匀,无需进行任务迁移调整。
第四步:任务页面感知的迁移策略
如果应用的内存占用量仍在增长,说明任务仍处于初始内存分配阶段,则不进行页面迁移;
如果应用的内存占用量相对稳定,说明任务处于计算运行阶段,则启用页面迁移,具体分为两部分:(1)将DRAM中最近没有发生写操作的页面集合迁移到NVM中;(2)将NVM中最近发生过写操作的页面集合迁移到DRAM中。
由于新型NVM介质与传统DRAM介质相比,存在写入速度较慢,以及擦写次数有限等缺陷。相关研究结果表明:NVM写操作比DRAM慢10~20倍,服务器场景擦写寿命是3~5年。但同时NVM具有存储容量大,非易失等特性。为了更好的发挥异构内存的性能,本发明采取周期性进行任务页面感知,根据页面的不同读写特性,进行相应的页面迁移策略。
首先任务页面感知的迁移策略基于如下实验结论:分析大量的应用页面特性,对于大部分应用,发现如下实验结论:不考虑应用初始内存分配阶段的写入操作,在应用计算运行过程中,发生写操作的页面数远小于应用所有分配的页面数。并且发生写操作的页面在应用整个计算运行过程中都是相对固定不变的。因此周期性进行如下页面迁移策略:
首先遍历所有节点的任务进程记录表,与上一次遍历结果进行比较。判断哪些应用仍处于内存占用增长阶段,对于这些应用不进行页面迁移。对于内存占用相对稳定的应用,进行页面感知迁移策略:
附图4给出了本实施例采取的8个应用在初始内存分配阶段后的内存占用示意图。虚线框将每个节点的内存根据存储介质划分为两部分:DRAM与NVM。白色方块代表最近未发生写操作的页面集合,灰色方块代表最近发生写操作的页面集合。由于***默认内存分配方式会优先分配DRAM内存,再分配NVM内存,所以导致一部分最近未发生写操作的页面分配在DRAM中(图中A、C、E、F),一部分最近发生写操作的页面分配在NVM中(图中H、I、K)。遍历所有页面的页表项(参见图1框⑥),根据脏页标志位将页面划分(参见图1框⑦):A、C、G、E、F、J、L为最近未发生写操作的页面集合;B、H、I、D、K为发生写操作的页面集合。检测是否有未发生写操作的页面在DRAM中(参见图1框⑧):将A、C、E、F页面集合迁移到NVM中。检测是否有发生写操作的页面在NVM中(参见图1框⑨):将H、I、K页面集合迁移到DRAM中。
附图5展示了迁移结束后页面放置结果,由于发生写操作的页面相对固定,所以在应用运行过程中,可以确保写操作的页面尽量分配在DRAM中,且不会造成大量的DRAM与NVM换入换出。同时依据页面对应页表项的脏页标志位,即可判断页面最近是否发生过写操作,无需对页面进行额外的元数据记录,运行开销低。
在本实施例中,通过采用异构内存架构下基于任务感知的资源分配方法,使4个计算密集型应用与4个数据密集型应用均匀分配到两个NUMA节点中,缓减了CPU的cache争用与内存访问竞争。并且区分应用的不同读写特性页面,在异构内存架构下采用适应性的放置策略,减少了NVM内存的写操作次数,延长了NVM的使用寿命。由于大部分写操作都发生在DRAM中,所以缓减了异构内存对应用的运行时间的影响。
Claims (1)
1.一种异构内存架构下基于任务感知的资源分配方法,其特征在于包括以下步骤:
第一步:进程性能元数据记录
针对所有优化的任务进程,通过硬件性能计数器获取进程每秒的内存写请求数WAPS和进程的内存总占用量MF这两个性能参数,由此计算出任务分类标准TC=WAPS*MF,其中,WAPS单位设置为million,MF单位设置为GB;依据TC值,将任务分成两大类:当TC<1时,为计算密集型应用;当TC>1时,为数据密集型应用;
第二步:节点任务分配记录
依据每一个进程的CPU占用、内存分配以及性能元数据记录,为NUMA架构中每一个节点创建一个任务进程记录表,记录节点内相关进程的元数据;同时为每个节点创建一个资源分配记录表,记录节点内的CPU core占用情况,以及节点空闲内存的容量;
第三步:任务特性感知的调度策略
基于***默认的任务资源分配方式,根据每个节点的任务分配记录,周期性完成节点间的任务迁移调整,以使不同类型的应用在所有节点分配均匀;
首先遍历NUMA所有节点的分配记录表,找出运行最多计算密集型应用即TC<1的节点Node1,以及运行最多数据密集型应用即TC>1的节点Node2;分别记录两节点中的计算密集型任务数为:computing_task_NUM;数据密集型任务数为:data_task_NUM;
对于两节点分别计算:如果computing_task_NUM减去data_task_NUM的绝对值大于1,即说明Node1与Node2节点的任务放置不够均匀;若两节点空闲内存能够支持任务迁移,就将Node1中一个计算密集型应用迁移至Node2,同时将Node2中一个数据密集型应用迁移至Node1;而若两节点空闲内存不支持任务迁移,则不做任务迁移操作;
对于两节点分别计算:如果computing_task_NUM减去data_task_NUM的绝对值小于等于1,即说明Node1与Node2节点的任务放置已经完全均匀,进而说明所有节点的不同类型应用均已分配均匀,则无需进行任务迁移调整;
第四步:任务页面感知的迁移策略
如果应用的内存占用量仍在增长,说明任务仍处于初始内存分配阶段,则不进行页面迁移;
如果应用的内存占用量相对稳定,说明任务处于计算运行阶段,则启用页面迁移,具体分为两部分:(1)将DRAM中最近没有发生写操作的页面集合迁移到NVM中;(2)将NVM中最近发生过写操作的页面集合迁移到DRAM中。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810632230.8A CN108897618B (zh) | 2018-06-19 | 2018-06-19 | 一种异构内存架构下基于任务感知的资源分配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810632230.8A CN108897618B (zh) | 2018-06-19 | 2018-06-19 | 一种异构内存架构下基于任务感知的资源分配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108897618A CN108897618A (zh) | 2018-11-27 |
CN108897618B true CN108897618B (zh) | 2021-10-01 |
Family
ID=64345409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810632230.8A Active CN108897618B (zh) | 2018-06-19 | 2018-06-19 | 一种异构内存架构下基于任务感知的资源分配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108897618B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112214302B (zh) * | 2020-10-30 | 2023-07-21 | 中国科学院计算技术研究所 | 一种进程调度方法 |
CN114047877A (zh) * | 2021-11-09 | 2022-02-15 | 山东华芯半导体有限公司 | 一种应用于SSD的NVM Set分配方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105117285A (zh) * | 2015-09-09 | 2015-12-02 | 重庆大学 | 一种基于移动虚拟化***的非易失性存储器调度优化方法 |
CN107391031A (zh) * | 2017-06-27 | 2017-11-24 | 北京邮电大学 | 一种基于混合存储的计算***中的数据迁移方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10540098B2 (en) * | 2016-07-19 | 2020-01-21 | Sap Se | Workload-aware page management for in-memory databases in hybrid main memory systems |
-
2018
- 2018-06-19 CN CN201810632230.8A patent/CN108897618B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105117285A (zh) * | 2015-09-09 | 2015-12-02 | 重庆大学 | 一种基于移动虚拟化***的非易失性存储器调度优化方法 |
CN107391031A (zh) * | 2017-06-27 | 2017-11-24 | 北京邮电大学 | 一种基于混合存储的计算***中的数据迁移方法及装置 |
Non-Patent Citations (3)
Title |
---|
CLOCK-DWF: A Write-History-Aware Page Replacement Algorithm for Hybrid PCM and DRAM Memory Architectures;Soyoon Lee;《IEEE Transactions on Computers》;20140930;第63卷(第9期);Pages 2187 - 2200 * |
Write-Aware Management of NVM-based Memory Extensions;Amro Awad;《Proceedings of the 2016 International Conference on Supercomputing》;20160630;Pages 1-12 * |
混合存储架构的自适应页面管理算法研究;孙志文;《中国优秀硕士学位论文全文数据库信息科技辑》;20170115;第2017年卷(第1期);I137-18 * |
Also Published As
Publication number | Publication date |
---|---|
CN108897618A (zh) | 2018-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110134514B (zh) | 基于异构内存的可扩展内存对象存储*** | |
US11086792B2 (en) | Cache replacing method and apparatus, heterogeneous multi-core system and cache managing method | |
US9081702B2 (en) | Working set swapping using a sequentially ordered swap file | |
US7613870B2 (en) | Efficient memory usage in systems including volatile and high-density memories | |
JP6678230B2 (ja) | ストレージ装置 | |
US8214596B2 (en) | Apparatus and method for segmented cache utilization | |
WO2021218038A1 (zh) | 一种存储***、内存管理方法和管理节点 | |
WO2013189186A1 (zh) | 非易失性存储设备的缓存管理方法及装置 | |
CN110795213B (zh) | 一种虚拟机迁移过程中活跃内存预测迁移方法 | |
CN111930643B (zh) | 一种数据处理方法及相关设备 | |
CN110347338B (zh) | 混合内存数据交换处理方法、***及可读存储介质 | |
CN103324466A (zh) | 一种数据相关性序列化io的并行处理方法 | |
CN108897618B (zh) | 一种异构内存架构下基于任务感知的资源分配方法 | |
CN111078143B (zh) | 基于段映射进行数据布局和调度的混合存储方法及*** | |
CN106909323B (zh) | 适用于dram/pram混合主存架构的页缓存方法及混合主存架构*** | |
CN109558093B (zh) | 一种针对图像处理型负载的混合内存页面迁移方法 | |
CN116364148A (zh) | 一种面向分布式全闪存储***的磨损均衡方法及*** | |
CN108664217B (zh) | 一种降低固态盘存储***写性能抖动的缓存方法及*** | |
CN108563586B (zh) | 一种分离固态盘中垃圾回收数据与用户数据的方法 | |
US10684964B1 (en) | System and method for reducing read latency in storage devices | |
US20070079061A1 (en) | Writing to file by multiple application threads in parallel | |
An et al. | Avoiding read stalls on flash storage | |
CN113867641B (zh) | 主机内存缓冲管理方法、装置、以及固态硬盘 | |
CN110413235B (zh) | 一种面向ssd去重的数据分配方法及*** | |
CN108920254B (zh) | 一种基于细粒度的内存分配方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20220908 Address after: 100192 207, floor 2, building C-1, Zhongguancun Dongsheng science and Technology Park, No. 66, xixiaokou Road, Haidian District, Beijing Patentee after: Pingkai star (Beijing) Technology Co.,Ltd. Address before: 230026 Jinzhai Road, Baohe District, Hefei, Anhui Province, No. 96 Patentee before: University of Science and Technology of China |
|
TR01 | Transfer of patent right |