CN110727517A - 一种基于分区设计的内存分配方法和装置 - Google Patents
一种基于分区设计的内存分配方法和装置 Download PDFInfo
- Publication number
- CN110727517A CN110727517A CN201910969636.XA CN201910969636A CN110727517A CN 110727517 A CN110727517 A CN 110727517A CN 201910969636 A CN201910969636 A CN 201910969636A CN 110727517 A CN110727517 A CN 110727517A
- Authority
- CN
- China
- Prior art keywords
- memory
- partition
- service request
- size
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5011—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
- G06F9/5016—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/0223—User address space allocation, e.g. contiguous or non contiguous base addressing
- G06F12/023—Free address space management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供了一种基于分区设计的内存分配方法和装置,所述方法包括以下步骤:预估数据总容量;根据预估的数据总容量请求相适配大小的内存块,并将所述内存块划分为若干内存分区;接收若干业务请求,并配置各业务请求与所述内存分区的对应关系,以使得各业务请求在进行处理时调用自身对应的内存分区进行处理。本申请通过预先设计合适的内存需求大小,一次性直接向***申请一片连续的大内存,减少了***运行过程中频繁申请小内存造成的性能消耗,提高了内存使用性能。同时,将业务请求的处理与内存分区相对应,避免了多线程的资源访问竞争,大大降低了多线程并发访问的执行性能消耗。
Description
技术领域
本发明涉及内存设计领域,特别涉及一种基于分区设计的内存分配方法和装置。
背景技术
常见基于内存的数据库设计有多种内存组织方式,一种是碎片化内存,按需实时申请,每个数据对象都是独立的内存单元。另一种是分片化内存,事先设计一组分片,比如1KB、2KB、N(KB)的字节大小,各分片均预先申请一定数量,自己组织管理对象的存储,根据数据对象的大小选择合适的内存分片。
然而,不论何种内存组织方式,通常在进行多线程读写操作时,不可避免的出现访问资源竞争。如图1所示,多个并行处理线程在对相同内存数据库进行读写操作时,为了保证各处理线程之间不会冲突,就需要对内存数据库进行加锁控制,以保证同一块内存在同一时间只有一个线程访问,也就是实现各处理线程对内存的串行化访问,从而避免出现数据脏读、脏写。
现有技术对内存访问的方式存在以下缺点:
(1)对内存数据库的利用效率低。采用碎片化组织方式,***在运行过程中实时申请或释放内存数据,很容易造成***内存碎片,从而增加***内存管理的消耗,造成后续内存分配越来越慢,甚至出现无法分配连续大内存的情况。采用分片化组织方式,由于带有预分配一定量的设计,这在一定程度上减轻了运行过程中频繁申请释放的问题,但仍然有分片不足时重新向***申请消耗的情况,同时,自己管理分片内存,各分片的数量均衡管理不善可能会造成内存浪费。
(2)内存数据库的并发访问操作性能低。现有技术通过对内存数据库加锁来支持多线程的并发读写访问,会导致读写性能大幅度地降低,当线程数越多,参与锁请求的线程越多,出现抢占和唤醒线程等操作,大大降低了内存数据库的执行性能。
因此,有必要提出一种新的技术方案,以解决上述多线程并发访问时执行性能大幅降低的问题。
发明内容
为此,需要提供一种基于分区设计的内存分配技术方案,用以解决在多线程并发访问内存时执行性能大幅降低的问题。
为实现上述目的,发明人提供了一种基于分区设计的内存分配方法,所述方法包括以下步骤:
预估数据总容量;
根据预估的数据总容量请求相适配大小的内存块,并将所述内存块划分为若干内存分区;
接收若干业务请求,并配置各业务请求与所述内存分区的对应关系,以使得各业务请求在进行处理时调用自身对应的内存分区进行处理。
进一步地,所述“预估数据总容量”包括:
根据业务请求所需的数据总容量的历史数据,来预估当前数据总容量。
进一步地,所述“将所述内存块划分为若干内存分区”包括:
将所述内存块的部分或全部划分为N个内存分区。
进一步地,所述“配置各业务请求与所述内存分区的对应关系,以使得各业务请求在进行处理时调用自身对应的内存分区进行处理”包括:
将各业务请求分配给若干处理线程,通过各处理线程对内存分区进行访问;每一业务请求对应一个处理线程,每一处理线程与一个内存分区相对应。
进一步地,所述方法包括:
将所述内存块的部分划分为N个内存分区,对所述内存块的剩余部分不进行划分以作为预留内存;
当某一内存分区大小无法满足其对应的业务请求时,该业务请求对应的处理线程从所述预留内存中申请一新的内存分区,以拓宽原有内存分区大小。
进一步地,从所述预留内存中申请的新的内存分区大小与原有处理线程对应的内存分区大小相同。
进一步地,所述方法包括:
当所述预留内存大小小于内存分区大小时,发出提示信息。
进一步地,所述装置根据如前文任一项所述的方法对业务请求进行处理。
上述技术方案所述的基于分区设计的内存分配方法和装置,所述方法包括以下步骤:预估数据总容量;根据预估的数据总容量请求相适配大小的内存块,并将所述内存块划分为若干内存分区;接收若干业务请求,并配置各业务请求与所述内存分区的对应关系,以使得各业务请求在进行处理时调用自身对应的内存分区进行处理。本申请通过预先设计合适的内存需求大小,一次性直接向***申请一片连续的大内存,减少了***运行过程中频繁申请小内存造成的性能消耗,提高了内存使用性能。同时,将业务请求的处理与内存分区相对应,避免了多线程的资源访问竞争,大大降低了多线程并发访问的执行性能消耗。
附图说明
图1为现有技术的内存分配方法的流程示意图;
图2为本发明一实施例涉及的基于分区设计的内存分配方法的流程图;
图3为本发明另一实施例涉及的基于分区设计的内存分配方法的流程示意图;
图4为本发明另一实施例涉及的基于分区设计的内存分配方法的流程示意图。
具体实施方式
为详细说明技术方案的技术内容、构造特征、所实现目的及效果,以下结合具体实施例并配合附图详予说明。
请参阅图1,为现有技术的内存分配方法的流程示意图。现有技术由于多个并行访问线程访问的是同一内存数据库,这就不可避免的出现访问资源竞争的问题,为了使得各线程的读写操作有序进行,就需要执行步骤S101:对内存数据进行加锁串行访问保护,以使得某一线程在对内存数据库进行访问时,其他内存无法对内存数据库进行访问,从而实现各线程对内存的串行访问。然而,尽管现有技术能够解决多线程访问资源出现竞争的问题,但也影响了数据处理效率和内存的利用率。
为解决现有技术的问题,如图2所示,为本发明一实施例涉及的基于分区设计的内存分配方法的流程图。所述方法包括以下步骤:
首先进入步骤S201预估数据总容量。
优选的,所述“预估数据总容量”包括:根据业务请求所需的数据总容量的历史数据,来预估当前数据总容量。所述历史数据是指以往业务数据的大小(如可以是近一年或两年内的),预估的当前数据总容量可以是以往业务数据的最大值再乘以相应的整数倍,例如可以将以往业务数据的最大值乘以两倍或三倍作为当前数据总容量,这样可以保证申请的内存容量足够满足业务数据的处理需求。
具体的,预估数据库的最大内存使用量一般可以考虑定量的结构化表结构。如通过获取最近几年业务交易数据的最大峰值容量乘以N倍(N大于1)作为预估数据总容量,可以通过获取历史数据中最大峰值下每个记录表的预估表行数,并通过公式:表记录的行大小(以字节为单位)x预估表行数(预估表行数为最大峰值下实际表行数的整数倍),从而获得单个表的预估容量,所有表的预估容量加起来就是整体数据库的预估容量。在实际使用过程中,可以根据业务性质多预留内存空间,比如可预见性的业务增长会超过2倍,那么就按预留内存容量的3倍来设计,预防出现突发性的峰值访问请求。
经过步骤S201,***已经根据实际业务的特点,预估出当前数据需要使用到的内存大小,而后进入步骤S202根据预估的数据总容量请求相适配大小的内存块,并将所述内存块划分为若干内存分区。
现有技术的内存数据库设计都是零散碎片型的组织方式,即按需申请型,只有在进程需要用到内存的时候才向***申请内存,导致处理效率上偏低。而采用本申请的方式,是在业务数据处理之前就预先申请出一块大内存(申请的内存大小与预估数据总容量大小相适配),从而可以大幅提高内存访问性能。
所述“将所述内存块划分为若干内存分区”包括:将所述内存块的部分或全部划分为N个内存分区。具体包括:根据业务特点按照首次预估的表行数容量,将申请的大内存的其中一部分划分为N片大小相同的内存分区,并将剩余部分内存空间供后续扩展使用。
然后可以按照以下设计的算法,将所有业务请求运算数据平均分散到编号1-N的内存分区内。在实际应用中,可以预先对每个业务请求都配置一个相对应的字符串,优选的,业务请求对应的字符串包含关键因子KHH(客户号拼音缩写),而后根据设计的分区数量N,先对业务请求对应的字符串进行哈希算法操作获得一个整数,再将得到的整数与分区数量N进行求模运算得到KHH对应的内存分区编号(1–N),计算公式如下:
S=HASH(KHH)mod N
其中,KHH为数据库结构表中记录的客户号的字符串,HSAH(KHH)表示对KHH字符串进行哈希运算,以得到整数,N为分区数量,得到的运算结果都会存储到内存分区编号S中,具体分区编号包括(1-N)。哈希算法为现有技术,此处不再展开赘述。
而后进入步骤S203接收若干业务请求,并配置各业务请求与所述内存分区的对应关系,以使得各业务请求在进行处理时调用自身对应的内存分区进行处理。
优选的,所述“配置各业务请求与所述内存分区的对应关系,以使得各业务请求在进行处理时调用自身对应的内存分区进行处理”包括:将各业务请求分配给若干处理线程,通过各处理线程对内存分区进行访问;每一业务请求对应一个处理线程,每一处理线程与一个内存分区相对应。
经过步骤S202后,***对内存进行划片分区,并按照一定的求模算法将业务请求平均分摊在各个内存分区中,每个业务请求处理所需的数据只会对应存储在固定的分区中,分区之间互相独立,没有干扰。内存数据库完成分区设计之后,可以按照如图3所示的步骤对内存数据库进行访问。
如图3所示,***接收来自客户端的业务请求。接收的业务请求可能为一个,也可能为多个。不同业务请求之间相互独立,并发进行处理。
在完成内存分区设计、确定出分区数N之后,也同时将处理线程数量配置为N,以使得处理线程和内存分区数量保持一致,两者可以一对一进行绑定,保证不同业务请求处理过程中,其对应的处理线程所访问的内存分区相互独立,互不干扰。简言之,业务请求1由处理线程1进行处理,处理线程1的数据只会针对内存分区1进行读写;业务请求2由处理线程2进行处理,处理线程2的数据只会针对内存分区2进行读写;业务请求N由处理线程N进行处理,处理线程N的数据只会针对内存分区N进行读写,各处理线程处理数据的过程相互独立,高效进行。
在图3中,步骤S301“按规则进行分区路由”与步骤S202中的内存分区规则一致,具体是提取业务请求的关键因子(如KHH),根据后续内存数据库的操作可以和处理线程进行绑定,按照分区规则S=HASH(KHH)mod N,确定分配的处理线程序号S(后续对应的内存分区序号也是S),将该业务请求分发给线程S进行处理。每个线程只访问自己对应的内存分区,互不干扰。当然,在另一些实施例中,所述关键因子还可以根据实际需要进行设定,只需能作为每一业务请求的唯一标识即可。
在实际应用过程中,当有些业务请求的数据量较大时,单个内存分区很可能无法满足处理线程的读写需要,为解决这一问题,在某些实施例中,所述方法包括:将所述内存块的部分划分为N个内存分区,对所述内存块的剩余部分不进行划分以作为预留内存;当某一内存分区大小无法满足其对应的业务请求时,该业务请求对应的处理线程从所述预留内存中申请一新的内存分区,以拓宽原有内存分区大小。优选的,从所述预留内存中申请的新的内存分区大小与原有处理线程对应的内存分区大小相同。
如图4所示,当某个处理线程在调用内区分区(如内存分区1)进行读写操作出现数据峰值超过内存分区容量需求时,此时因为整个大内存(即内存块)还有预留未分配的剩余部分,因而***可以进入步骤S401从内存空间剩余部分申请出一块相同大小的分区空间进行扩展使用。
进一步地,所述方法包括:当所述预留内存大小小于内存分区大小时,发出提示信息。即预留内存全部用尽或者已经不足以满足处理线程的数据读写需求时,***将返回访问失败,并进行报警处理。技术人员可以根据警报情况,手动扩大预估数据总容量的空间大小并重启程序。同时,申请的内存块不足也说明本次处理对待处理的数据容量预估的不够理想,需要重新预估进行调整。
经过图4步骤的处理,已经对内存数据库的访问做出了分区划分,各处理线程只对自身对应的内存分区进行数据读写,不同处理进程之间没有跨分区操作,也不存在资源竞争。本方法无需跨线程加锁操作,互不干扰,就可以达到执行性能提升最大化。
本申请还提供了一种基于分区设计的内存分配装置,所述装置根据如前文所述的方法对业务请求进行处理。
本发明提供了一种基于分区设计的内存分配方法和装置,所述方法包括以下步骤:预估数据总容量;根据预估的数据总容量请求相适配大小的内存块,并将所述内存块划分为若干内存分区;接收若干业务请求,并配置各业务请求与所述内存分区的对应关系,以使得各业务请求在进行处理时调用自身对应的内存分区进行处理。本申请通过预先设计合适的内存需求大小,一次性直接向***申请一片连续的大内存,减少了***运行过程中频繁申请小内存造成的性能消耗,提高了内存使用性能。同时,将业务请求的处理与内存分区相对应,避免了多线程的资源访问竞争,大大降低了多线程并发访问的执行性能消耗。
需要说明的是,尽管在本文中已经对上述各实施例进行了描述,但并非因此限制本发明的专利保护范围。因此,基于本发明的创新理念,对本文所述实施例进行的变更和修改,或利用本发明说明书及附图内容所作的等效结构或等效流程变换,直接或间接地将以上技术方案运用在其他相关的技术领域,均包括在本发明的专利保护范围之内。
Claims (8)
1.一种基于分区设计的内存分配方法,其特征在于,所述方法包括以下步骤:
预估数据总容量;
根据预估的数据总容量请求相适配大小的内存块,并将所述内存块划分为若干内存分区;
接收若干业务请求,并配置各业务请求与所述内存分区的对应关系,以使得各业务请求在进行处理时调用自身对应的内存分区进行处理。
2.如权利要求1所述的基于分区设计的内存分配方法,其特征在于,所述“预估数据总容量”包括:
根据业务请求所需的数据总容量的历史数据,来预估当前数据总容量。
3.如权利要求1所述的基于分区设计的内存分配方法,其特征在于,所述“将所述内存块划分为若干内存分区”包括:
将所述内存块的部分或全部划分为N个内存分区。
4.如权利要求1或3所述的基于分区设计的内存分配方法,其特征在于,所述“配置各业务请求与所述内存分区的对应关系,以使得各业务请求在进行处理时调用自身对应的内存分区进行处理”包括:
将各业务请求分配给若干处理线程,通过各处理线程对内存分区进行访问;每一业务请求对应一个处理线程,每一处理线程与一个内存分区相对应。
5.如权利要求4所述的基于分区设计的内存分配方法,其特征在于,所述方法包括:
将所述内存块的部分划分为N个内存分区,对所述内存块的剩余部分不进行划分以作为预留内存;
当某一内存分区大小无法满足其对应的业务请求时,该业务请求对应的处理线程从所述预留内存中申请一新的内存分区,以拓宽原有内存分区大小。
6.如权利要求5所述的基于分区设计的内存分配方法,其特征在于,从所述预留内存中申请的新的内存分区大小与原有处理线程对应的内存分区大小相同。
7.如权利要求5或6所述的基于分区设计的内存分配方法,其特征在于,所述方法包括:
当所述预留内存大小小于内存分区大小时,发出提示信息。
8.一种基于分区设计的内存分配装置,其特征在于,所述装置根据如权利要求1至7任一项所述的方法对业务请求进行处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910969636.XA CN110727517A (zh) | 2019-10-12 | 2019-10-12 | 一种基于分区设计的内存分配方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910969636.XA CN110727517A (zh) | 2019-10-12 | 2019-10-12 | 一种基于分区设计的内存分配方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110727517A true CN110727517A (zh) | 2020-01-24 |
Family
ID=69220031
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910969636.XA Pending CN110727517A (zh) | 2019-10-12 | 2019-10-12 | 一种基于分区设计的内存分配方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110727517A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111309482A (zh) * | 2020-02-20 | 2020-06-19 | 浙江亿邦通信科技有限公司 | 矿机控制器任务分配***、装置及其可存储介质 |
CN112218104A (zh) * | 2020-09-03 | 2021-01-12 | 视联动力信息技术股份有限公司 | 一种数据传输方法、装置、终端设备和存储介质 |
CN112558867A (zh) * | 2020-12-10 | 2021-03-26 | 中国航空工业集团公司沈阳飞机设计研究所 | 一种对记录器存储空间高效使用的方法 |
CN115391032A (zh) * | 2022-08-15 | 2022-11-25 | 上海慧程工程技术服务有限公司 | 一种用于工业物联网边缘设备的内存优化方法 |
CN116820786A (zh) * | 2023-08-31 | 2023-09-29 | 本原数据(北京)信息技术有限公司 | 数据库的数据访问方法和装置、电子设备、存储介质 |
WO2023221003A1 (zh) * | 2022-05-18 | 2023-11-23 | 北京小米移动软件有限公司 | ***内存的回收方法、装置、电子设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106502918A (zh) * | 2016-09-19 | 2017-03-15 | 上海华为技术有限公司 | 一种内存调度方法及装置 |
CN107515788A (zh) * | 2017-08-31 | 2017-12-26 | 郑州云海信息技术有限公司 | 一种内存分配的方法及装置 |
US20170371570A1 (en) * | 2016-06-24 | 2017-12-28 | Futurewei Technologies, Inc. | System and Method for Shared Memory Ownership Using Context |
CN107766158A (zh) * | 2017-11-03 | 2018-03-06 | 郑州云海信息技术有限公司 | 一种基于gperftools的内存管理方法 |
CN108595258A (zh) * | 2018-05-02 | 2018-09-28 | 北京航空航天大学 | 一种gpgpu寄存器文件动态扩展方法 |
CN109271248A (zh) * | 2017-07-17 | 2019-01-25 | 中国银河证券股份有限公司 | 内存处理方法及装置 |
-
2019
- 2019-10-12 CN CN201910969636.XA patent/CN110727517A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170371570A1 (en) * | 2016-06-24 | 2017-12-28 | Futurewei Technologies, Inc. | System and Method for Shared Memory Ownership Using Context |
CN106502918A (zh) * | 2016-09-19 | 2017-03-15 | 上海华为技术有限公司 | 一种内存调度方法及装置 |
CN109271248A (zh) * | 2017-07-17 | 2019-01-25 | 中国银河证券股份有限公司 | 内存处理方法及装置 |
CN107515788A (zh) * | 2017-08-31 | 2017-12-26 | 郑州云海信息技术有限公司 | 一种内存分配的方法及装置 |
CN107766158A (zh) * | 2017-11-03 | 2018-03-06 | 郑州云海信息技术有限公司 | 一种基于gperftools的内存管理方法 |
CN108595258A (zh) * | 2018-05-02 | 2018-09-28 | 北京航空航天大学 | 一种gpgpu寄存器文件动态扩展方法 |
Non-Patent Citations (1)
Title |
---|
朱华勇: "《分布式***实时发布订阅数据分发技术》", 31 August 2013, 国防工业出版社 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111309482A (zh) * | 2020-02-20 | 2020-06-19 | 浙江亿邦通信科技有限公司 | 矿机控制器任务分配***、装置及其可存储介质 |
CN111309482B (zh) * | 2020-02-20 | 2023-08-15 | 浙江亿邦通信科技有限公司 | 基于哈希算法的区块链任务分配***、装置及可存储介质 |
CN112218104A (zh) * | 2020-09-03 | 2021-01-12 | 视联动力信息技术股份有限公司 | 一种数据传输方法、装置、终端设备和存储介质 |
CN112558867A (zh) * | 2020-12-10 | 2021-03-26 | 中国航空工业集团公司沈阳飞机设计研究所 | 一种对记录器存储空间高效使用的方法 |
CN112558867B (zh) * | 2020-12-10 | 2024-04-09 | 中国航空工业集团公司沈阳飞机设计研究所 | 一种对记录器存储空间高效使用的方法 |
WO2023221003A1 (zh) * | 2022-05-18 | 2023-11-23 | 北京小米移动软件有限公司 | ***内存的回收方法、装置、电子设备及存储介质 |
CN115391032A (zh) * | 2022-08-15 | 2022-11-25 | 上海慧程工程技术服务有限公司 | 一种用于工业物联网边缘设备的内存优化方法 |
CN116820786A (zh) * | 2023-08-31 | 2023-09-29 | 本原数据(北京)信息技术有限公司 | 数据库的数据访问方法和装置、电子设备、存储介质 |
CN116820786B (zh) * | 2023-08-31 | 2023-12-19 | 本原数据(北京)信息技术有限公司 | 数据库的数据访问方法和装置、电子设备、存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110727517A (zh) | 一种基于分区设计的内存分配方法和装置 | |
US8874811B2 (en) | System and method for providing a flexible buffer management interface in a distributed data grid | |
CN108900626B (zh) | 一种云环境下数据存储方法、装置及*** | |
CN107783812B (zh) | 虚拟机内存管理方法及装置 | |
US20110320755A1 (en) | Tracking dynamic memory reallocation using a single storage address configuration table | |
CN105917319A (zh) | 存储器单元和方法 | |
CN107969153B (zh) | 一种资源分配方法、装置及numa*** | |
US20190129845A1 (en) | Managing objects stored in memory | |
CN112148665B (zh) | 缓存的分配方法及装置 | |
CN111104219A (zh) | 虚拟核心与物理核心的绑定方法、装置、设备及存储介质 | |
CN111708638B (zh) | 内存分配方法、装置、设备及存储介质 | |
CN106294192B (zh) | 内存分配方法、内存分配装置及服务器 | |
CN111984425A (zh) | 用于操作***的内存管理方法、装置及设备 | |
CN102122268B (zh) | 一种虚拟机内存分配访问方法、装置和*** | |
CN110178119B (zh) | 处理业务请求的方法、装置与存储*** | |
CN110806942A (zh) | 数据处理的方法和装置 | |
EP3249539B1 (en) | Method and device for accessing data visitor directory in multi-core system | |
KR101198400B1 (ko) | 메모리 관리 장치 및 방법 | |
US9697048B2 (en) | Non-uniform memory access (NUMA) database management system | |
CN111339144A (zh) | 一种分布式唯一id的生成方法、***、终端及存储介质 | |
US20020029800A1 (en) | Multiple block sequential memory management | |
CN110825732A (zh) | 数据查询方法、装置、计算机设备和可读存储介质 | |
CN116225693A (zh) | 元数据管理方法、装置、计算机设备及存储介质 | |
CN116204309A (zh) | 内存交换方法、装置、计算机设备及存储介质 | |
CN115599542A (zh) | 一种共享内存池实现方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |